Automatisches URL entfernen: No Risk No Fun
Verfasst: 18.12.2004, 08:57
Hallo,
ich habe im Google Index Seiten meiner Domain mit https://www.domain.de und https://domain.de.
Hierzu habe ich schon seit 3 Monaten eine 301 Weiterleitung von https://domain.de auf https://www.domain.de.
Google nimmt diese Weiterleitung gar nicht oder nur sehr träge an.
Ziel: Die Seiten mit https://domain.de möchte ich aus dem Index haben.
Folgende Vorgehensweise habe ich mir überlegt um die sache stark zu beschleunigen:
1) 301 Weiterleitung von non-www auf www (kurzfristig) entfernen
2) robots.txt (kurzfristig) wie folgt ändern:
User-agent: *
Disallow: /
3) Übermitteln der robots.txt (ohne www) über das Google URL removal Tool
- https://services.google.com:8882/urlconsole/controller
- Option: Löschen Sie Seiten mithilfe einer robots.txt-Datei
- Pfad (ohne www) auf die Robots.txt: https://domain.de/robots.txt
4) Warten bis Google die URLs ohne www entfernt hat
5) robots.txt wieder anpassen
User-agent: *
Disallow:
6) 301 weiterleitung von non-www auf www wieder aktivieren.
7) Fertig
So und jetzt meine Quizfrage:
Glaubt Ihr, dass das so funktioniert und Google die URLs ohne www rauswirft und die mit www drinnlässt?
Oder hat es eventuell jemand schonmal so gemacht?
Gruss
ich habe im Google Index Seiten meiner Domain mit https://www.domain.de und https://domain.de.
Hierzu habe ich schon seit 3 Monaten eine 301 Weiterleitung von https://domain.de auf https://www.domain.de.
Google nimmt diese Weiterleitung gar nicht oder nur sehr träge an.
Ziel: Die Seiten mit https://domain.de möchte ich aus dem Index haben.
Folgende Vorgehensweise habe ich mir überlegt um die sache stark zu beschleunigen:
1) 301 Weiterleitung von non-www auf www (kurzfristig) entfernen
2) robots.txt (kurzfristig) wie folgt ändern:
User-agent: *
Disallow: /
3) Übermitteln der robots.txt (ohne www) über das Google URL removal Tool
- https://services.google.com:8882/urlconsole/controller
- Option: Löschen Sie Seiten mithilfe einer robots.txt-Datei
- Pfad (ohne www) auf die Robots.txt: https://domain.de/robots.txt
4) Warten bis Google die URLs ohne www entfernt hat
5) robots.txt wieder anpassen
User-agent: *
Disallow:
6) 301 weiterleitung von non-www auf www wieder aktivieren.
7) Fertig
So und jetzt meine Quizfrage:
Glaubt Ihr, dass das so funktioniert und Google die URLs ohne www rauswirft und die mit www drinnlässt?
Oder hat es eventuell jemand schonmal so gemacht?
Gruss