Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ignoriert google meine Seitenausschlüsse in robots.txt ?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
McMillion
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 20.01.2013, 14:05

Beitrag von McMillion » 24.01.2013, 11:03

Ich habe in meinem Shop technisch bedingt leider einige Doppel-Contents und habe einige Seiten testweise schon vor ein paar Wochen in die Robots.txt eingetragen. Leider scheint das google aber irgendwie zu ignorieren und führt die Seiten weiterhin in den Webmastertools mit doppeltem Title-Tag. Es heißt ja, es dauert einige Tage, bis der google Bot wieder vorbeikommt, aber ich habe diese Änderungen nun schon vor 3 Wochen gemacht und es tut sich einfach nichts.

Woran kann das liegen?