Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Automatisches URL entfernen: No Risk No Fun

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 18.12.2004, 08:57

Hallo,

ich habe im Google Index Seiten meiner Domain mit https://www.domain.de und https://domain.de.
Hierzu habe ich schon seit 3 Monaten eine 301 Weiterleitung von https://domain.de auf https://www.domain.de.
Google nimmt diese Weiterleitung gar nicht oder nur sehr träge an.

Ziel: Die Seiten mit https://domain.de möchte ich aus dem Index haben.

Folgende Vorgehensweise habe ich mir überlegt um die sache stark zu beschleunigen:


1) 301 Weiterleitung von non-www auf www (kurzfristig) entfernen

2) robots.txt (kurzfristig) wie folgt ändern:

User-agent: *
Disallow: /

3) Übermitteln der robots.txt (ohne www) über das Google URL removal Tool

- https://services.google.com:8882/urlconsole/controller
- Option: Löschen Sie Seiten mithilfe einer robots.txt-Datei
- Pfad (ohne www) auf die Robots.txt: https://domain.de/robots.txt

4) Warten bis Google die URLs ohne www entfernt hat

5) robots.txt wieder anpassen

User-agent: *
Disallow:

6) 301 weiterleitung von non-www auf www wieder aktivieren.

7) Fertig

So und jetzt meine Quizfrage:

Glaubt Ihr, dass das so funktioniert und Google die URLs ohne www rauswirft und die mit www drinnlässt?
Oder hat es eventuell jemand schonmal so gemacht?

Gruss

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Heidi
PostRank 5
PostRank 5
Beiträge: 237
Registriert: 06.12.2003, 13:28
Wohnort: Osnabrück

Beitrag von Heidi » 18.12.2004, 09:27

Nein bloss nicht. Auf diese Weise habe ich auch geglaubt, mein Doublettenproblem nachhaltig in den Griff zu kriegen. Auf diese Weise wird vermutlich die ganze Domain, ob mit oder ohne www für 90 Tage unwiederruflich gesperrt. So war es jedenfalls bei mir. Aber auch die Idee mit den 301-Weiterleitungen sind bei mir schief gegangen, da dadurch die URLs, die ich raus haben wollte, im Google-Index den Content gezeigt haben der auf den Hauptseiten war, also war das Doulettenproblem noch verschärft.

Heidi

Fox Mulder
PostRank 8
PostRank 8
Beiträge: 804
Registriert: 16.11.2004, 09:06

Beitrag von Fox Mulder » 18.12.2004, 09:43

@ Heidi: Danke für Deine Hinweise und Warnungen!

Aber verstehen tue ich es noch nicht.

Wenn ich https://domain.de/robots.txt ohne www an Google übermittle, sollten doch auch nur die URLs mit Bezug zu dieser robots.txt rausgeworfen werden. Warum werden dann auch die Seiten mit www rausgeworfen??

Gruss