Wie kann ich effektiv doppelten Inhalt bei Google löschen? Unsere Site bekam durch fehlerhafte dynamische Verlinkung (Mod-Rewrite auf PHP-Seiten) sehr viele Duplikate (>19.000) im Stil von:
sitename.html?language=de, sitename.html?language=uk, ... -->verweisen alle auf den selben Inhalt...
Die Fehler sind inzwischen behoben, doch die Seiten sind nach wie vor bei Google drin.
Ich habe bereits versucht durch robots.txt - Einschränkungen (disallow) und .htaccess - Rewrite-Regeln (410) eine Löschung der Links bei Google zu erreichen, aber da hat sich in den letzten Wochen nichts getan.
In der Google-Hilfe (
https://www.google.de/webmasters/remove.html) stehen die Zeilen:
Zum Entfernen dynamisch erstellter Seiten verwenden Sie den folgenden robots.txt-Eintrag:
User-agent: Googlebot
Disallow: /*?
Also hätten doch eigentlich folgende Anweisungen in der robots.txt Erfolg bringen müssen:
User-agent: Googlebot
Disallow: /*?language=de
Disallow: /*?language=uk
...
Aber ebenfalls seit geraumer Zeit keine Änderung in der Suchergebnis-Ausgabe bei Google.
Ich hab's dann mit Googles "automatischem System zum Entfernen von URLs" versucht (
https://services.google.com:8882/urlconsole/controller). Dabei kann man durch gezielte robots.txt Einträge bestimmte Seiten löschen lassen. ---> Soweit die Theorie jedenfalls.
Google bringt jedes Mal einen Fehler mit dem Hinweis, dass keine Jokerzeichen in der robots.txt erlaubt seien. Das widerspricht doch den bereits genannten Tipps von Google selbst.
Wer hat mit dem Löschen mehrerer Seiten bei Google Erfahrungen gesammelt oder sonst einen nützlichen Tipp, wie ich das Problem beseitigen kann?