Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URL Wechsel / Nur Robots.txt Riskant wegen DC?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
koni
PostRank 3
PostRank 3
Beiträge: 75
Registriert: 18.11.2004, 14:40

Beitrag von koni » 10.07.2006, 09:38

Ich werden in naheliegender Zeit die URL einer Webseite ändern. Die jetztige Webseite hat ca. 400'000 Seiten im Google-Index. Da die Meisten Seiten (inhaltlich) auf der neuen URL auch wieder vorhanden sind, möchte ich natürlich kein Risko betreffend doppeltem Content eingehen. Nun, reicht es ein Robots.txt:

User-agent: *
Disallow: /

zu erstellen, oder sollte ich besser das "Google System zum automatischen Entfernen von URLs" verwenden?

Danke und Gruss

Koni

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 10.07.2006, 11:18

Setzt nen permanent redirect in die htaccess!

koni
PostRank 3
PostRank 3
Beiträge: 75
Registriert: 18.11.2004, 14:40

Beitrag von koni » 10.07.2006, 12:03

ole1210, das mach ich zusätzlich sowieso. Aber die noch indexierten Seiten sind auch mit einem permanent redirect noch vorhanden! Ich bin mir einfach nicht sicher ob ein Disallow: / im Robotsfile reicht, damit die Inhalte nicht als doppelter Content gewertet werden, oder ich die komplette alte Seite automatisch entfernen lassen soll von Google!?

Danke und Gruss

Koni