Fehlerseiten per robots.txt sperren
Verfasst: 23.03.2011, 17:15
Auf meinem Projekt gibt es diverse Links welche - weil momentan noch nicht fertiggestellt - auf Fehlerseiten verweisen. Mit den Fehlerseiten möchte ich vermeiden dass diese Links als tote Links von Google erkannt werden. Trotzdem zeigt mir Google in den Webmastertools über 30 tote Links an.
Ist es für solche Fälle nicht ratsam diese Seite in die robots.txt einzutragen damit Google diese nicht versucht zu crawlen und die WMT fehlerfrei bleibt?
Sonnige Grüße
Tom
Ist es für solche Fälle nicht ratsam diese Seite in die robots.txt einzutragen damit Google diese nicht versucht zu crawlen und die WMT fehlerfrei bleibt?
Sonnige Grüße
Tom

