Es gibt keinen Haken. Das Problem wurde komplett gelöst !!!!
Problem ist halt, dass Google den ganzen doppelten Content unter
https://domain.de noch gespeichert hat. Das kann noch Monate dauern, bis der entfernt wird.
Zur Verständlichung:
"allinurl:domain site:domain.de" bringt mehr Ergebnisse als
"allinurl:domain site:
www.domain".
Den doppelten Content kann man mit
"allinurl:domain site:domain.de -www" aufrufen (teilweise natürlich inzwischen Nur-Urls).
Den doppelten Content unter
https://domain.de sofort zu entfernen geht nur mit dem google removal tool.
Wir haben (wie das ging bin ich technisch überfragt) unter
https://domain.de/robots.txt die oben genannte robots.txt.
Wenn ich jetzt
https://domain.de/robots.txt bei dem Tool anwende, müsste normalerweise der doppelte Content verschwinden.
Also "allinurl:domain site:domain.de -www" = 0 ergeben.
Nur habe ich ein wenig Schiss, dass dies Google net so richtig peilt und auch alles unter
www.yopi.de rausschmeisst (obwohl hier andere robots.txt).
Deswegen meine konkrete Frage: Hat das schon jemand probiert?