Ignoriert google meine Seitenausschlüsse in robots.txt ?
Verfasst: 24.01.2013, 11:03
Ich habe in meinem Shop technisch bedingt leider einige Doppel-Contents und habe einige Seiten testweise schon vor ein paar Wochen in die Robots.txt eingetragen. Leider scheint das google aber irgendwie zu ignorieren und führt die Seiten weiterhin in den Webmastertools mit doppeltem Title-Tag. Es heißt ja, es dauert einige Tage, bis der google Bot wieder vorbeikommt, aber ich habe diese Änderungen nun schon vor 3 Wochen gemacht und es tut sich einfach nichts.
Woran kann das liegen?
Woran kann das liegen?