Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URL Wechsel / Nur Robots.txt Riskant wegen DC?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
koni
PostRank 3
PostRank 3
Beiträge: 75
Registriert: 18.11.2004, 14:40

Beitrag von koni » 10.07.2006, 09:38

Ich werden in naheliegender Zeit die URL einer Webseite ändern. Die jetztige Webseite hat ca. 400'000 Seiten im Google-Index. Da die Meisten Seiten (inhaltlich) auf der neuen URL auch wieder vorhanden sind, möchte ich natürlich kein Risko betreffend doppeltem Content eingehen. Nun, reicht es ein Robots.txt:

User-agent: *
Disallow: /

zu erstellen, oder sollte ich besser das "Google System zum automatischen Entfernen von URLs" verwenden?

Danke und Gruss

Koni

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 10.07.2006, 11:18

Setzt nen permanent redirect in die htaccess!

koni
PostRank 3
PostRank 3
Beiträge: 75
Registriert: 18.11.2004, 14:40

Beitrag von koni » 10.07.2006, 12:03

ole1210, das mach ich zusätzlich sowieso. Aber die noch indexierten Seiten sind auch mit einem permanent redirect noch vorhanden! Ich bin mir einfach nicht sicher ob ein Disallow: / im Robotsfile reicht, damit die Inhalte nicht als doppelter Content gewertet werden, oder ich die komplette alte Seite automatisch entfernen lassen soll von Google!?

Danke und Gruss

Koni

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 10.07.2006, 12:41

Der permanet redirect reicht. dann werden die Seiten über kurz (bei guter verlinkung) oder lang (be schlechter Verlinkung) aus dem Index verschwinden und durch die neuen ersetzt.

Die robots.txt kannst du dir sparen!

koni
PostRank 3
PostRank 3
Beiträge: 75
Registriert: 18.11.2004, 14:40

Beitrag von koni » 10.07.2006, 14:51

Aber die Seiten sind ja dann immernoch im Index. Und wenn es länger dauern wird, ist der Content doppelt drin. Oder werden als Content nur Seiten gewertet die auch aufrufbar sind? Hm...

Danke und Gruss

Koni

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 10.07.2006, 15:14

Oder werden als Content nur Seiten gewertet die auch aufrufbar sind?
Neeee. Natürlich nicht. Google hat eine blühende Phantasie und wertet selbstverständlich Seiten die nicht aufrufbar sind als Content.

Gruß

Ole

PS.: Schalt doch einfach mal dein Hirn ein....

koni
PostRank 3
PostRank 3
Beiträge: 75
Registriert: 18.11.2004, 14:40

Beitrag von koni » 10.07.2006, 15:43

ole1210 hat geschrieben:
PS.: Schalt doch einfach mal dein Hirn ein....
Was für dich logisch ist, ist es für andere vielleicht nicht. danke trotzdem...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag