Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URL Wechsel / Nur Robots.txt Riskant wegen DC?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
koni
PostRank 3
PostRank 3
Beiträge: 75
Registriert: 18.11.2004, 14:40

Beitrag von koni » 10.07.2006, 09:38

Ich werden in naheliegender Zeit die URL einer Webseite ändern. Die jetztige Webseite hat ca. 400'000 Seiten im Google-Index. Da die Meisten Seiten (inhaltlich) auf der neuen URL auch wieder vorhanden sind, möchte ich natürlich kein Risko betreffend doppeltem Content eingehen. Nun, reicht es ein Robots.txt:

User-agent: *
Disallow: /

zu erstellen, oder sollte ich besser das "Google System zum automatischen Entfernen von URLs" verwenden?

Danke und Gruss

Koni