Seite 1 von 1

Seite auf noindex gesetzt, doch sie fliegt nicht raus...

Verfasst: 15.11.2013, 04:23
von Stephano
Bei einem Projekt von mir musste ich vor ein paar Wochen wegen dc etwas aufräumen und habe deshalb die Seiten der englische Version auf noindex gestellt (waren meist auf deutsch verfasste Profile, die halt auch auf der englischen Seite ebenfalls gezeigt wurden). Jetzt stelle ich fest, dass google zwar weiterhin neue Seiten indexiert, die bereits indexierten und jetzt auf noindex gesetzten Seiten jedoch nicht verschwinden wollen.

Frage: Dauert so etwas immer länger obwohl google die Seiten schon längst wieder gecrawelt hat oder muss ich die Seiten jetzt wirklich im Webmaster-Toll einzeln auf nicht mehr vorhanden eintragen?

Verfasst:
von

Verfasst: 15.11.2013, 07:27
von multiple
Nach meiner Erfahrung trennt sich Google nur sehr zögerlich von Seiten im Index, wenn man ihm das nicht unmissverständlich über die Webmasterzentrale mitteilt. Zumindest ein Teil der Seiten sollte aber verschwunden sein, wenn die noindex-Aktion schon ein paar Wochen her ist.

Re: Seite auf noindex gesetzt, doch sie fliegt nicht raus...

Verfasst: 15.11.2013, 10:38
von SloMo
Stephano hat geschrieben:Jetzt stelle ich fest, dass google zwar weiterhin neue Seiten indexiert, die bereits indexierten und jetzt auf noindex gesetzten Seiten jedoch nicht verschwinden wollen.
Länger als eine Woche sollte es nicht dauern, bis die ersten Effekte der Deindizierung sichtbar werden. Immer vorausgesetzt, dass es viele Seiten sind und Google gut crawlt, was ja aber bei Dir der Fall zu sein scheint.

Vorsicht ist bei gleichzeitiger Verwendung der robots.txt geboten: wenn Du den Crawler aus den betreffenden Seiten aussperrst, wird er sie nicht mehr crawlen und somit das Noindex nicht sehen.

Verfasst: 15.11.2013, 12:34
von imwebsein

Verfasst: 18.11.2013, 12:42
von eure_dudeheit
Hast du zufällig die Seiten noch per robots.txt blockiert?
So kann der Googlebot das Noindex nicht erreichen.

Verfasst: 18.11.2013, 16:14
von perplexus
eure_dudeheit hat geschrieben:Hast du zufällig die Seiten noch per robots.txt blockiert?
So kann der Googlebot das Noindex nicht erreichen.
Das wollte ich auch gerade sagen. Es passiert meiner Erfahrung nach häufig nämlich häufig, dass Webmaster beim noindex-Setzen auch gleich noch die robots.txt-Sperre einbauen.

Verfasst: 18.11.2013, 16:44
von der-schwarze-Unhold
Hallo Stephano,
teste doch mal über die Cache-Abfrage, wann die Seiten, die noch im Index sind, das letzte Mal gecrawlt wurden. Ich vermute dass das Crawling nicht richtig funktioniert, wenn die Seiten nicht verschwinden. Das kannst Du am besten über die Sitemaps und WMT steuern. Leg beispielsweise eine XML-Sitemap an mit allen Seiten, die jetzt auf noindex stehen und deindexiert werden sollen und reich diese in den WMT ein, dann sollte es schneller gehen.

Verfasst: 20.11.2013, 21:25
von Stephano
Es eilt ja nicht unbedingt, hat aber sonderbarerweise immer noch nicht geklappt...

Übrigens habe ich zum Vergleich ein anderes Projekt, bei dem die URL-Struktur vor sechs Monaten komplett geändert wurde. Die alten Seiten (längst nicht mehr erreichbar) verschwinden erst jetzt nach und nach aus dem Index, nach wie gesagt fast sechs Monaten. Ich bekomme zwar im Webmaster-Tool angezeigt, dass xxx-Seiten einen Fehler aufweisen (nicht erreichbar) aber indexiert sind sie wie gesagt immer noch und das auch im google Cache.