Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Bei fehlender robots.txt Google blockiert zahlreiche URLs?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
1234d1
PostRank 1
PostRank 1
Beiträge: 29
Registriert: 21.10.2009, 09:14

Beitrag von 1234d1 » 09.07.2012, 13:14

Hallo,

bei einem Webprojekt wurde durch ein CMS beim Aufruf von example.com/robots.txt per 200 Statuscode auf die Startseite geleitet (nicht schlau und wurde mittlerweile behoben).

Doch komischerweise wird in den Google Webmaster Tools angezeigt, dass Google die Robots.txt erkannt hat (wahrscheinlich wegen dem Statuscode) und zahlreiche URLs blockiert wurden. Wie geht denn das, wenn gar keine vorhanden war?