Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Fehlerseiten per robots.txt sperren

Mehrere Domains, Domain-Umzug, neue Dateinamen, 301/302
Neues Thema Antworten
Major Tom
PostRank 5
PostRank 5
Beiträge: 284
Registriert: 09.02.2011, 16:46

Beitrag von Major Tom » 23.03.2011, 17:15

Auf meinem Projekt gibt es diverse Links welche - weil momentan noch nicht fertiggestellt - auf Fehlerseiten verweisen. Mit den Fehlerseiten möchte ich vermeiden dass diese Links als tote Links von Google erkannt werden. Trotzdem zeigt mir Google in den Webmastertools über 30 tote Links an.

Ist es für solche Fälle nicht ratsam diese Seite in die robots.txt einzutragen damit Google diese nicht versucht zu crawlen und die WMT fehlerfrei bleibt?

Sonnige Grüße

Tom