Seite 1 von 1

Googlebot Deep Crawl / Unstimmigkeiten

Verfasst: 28.10.2005, 19:56
von mark007q
Ich habe festgestellt, dass der Googlebot seit Tagen nur noch die index.php spidert.

Der letzte DeepCrawl war am 17 Oktober wo fast alle Seiten durchlaufen wurden.

Könnt Ihr ähnliches Verhalten des Googlebot bestätigen?

Ich bin mir auch nict ganz sicher, ob nicht folgende Anweisung in der robots.txt zur Reduzierung des Spider Verhaltens beigetragen hat:

Disallow /*_newpost.html$

Laut Google selbst, sollte damit alles was mit _newpost.html endet nicht gespidert werden.

Ich hatte für einen Moment überlegt, ob nicht die Interpretation (warum auch immer) auf alle HTML Seiten erstreckt wurde ... was eigentlich, wenn man Google glauben schenken darf, bei der o.g. Anweisung nicht sein darf.

Es würde mich interesieren, wie das Spiderverhalten bei Euch aussieht?

Sstzt der Googlebot nur in nunmehr größeren Abständen zum Deep Crawl an?

Verfasst:
von

Verfasst: 29.10.2005, 01:44
von nin
letzter größerer Crawl war bei mir am 18.10.
danach täglich nur einige wenige Seiten.
Eigenartigerweise wurde die unwichtigste Seite ständig besucht.

Verfasst: 29.10.2005, 09:11
von mark007q
... so schnell kann es gehen ... Google setzt gerade bei mir zum Mega Crawl an ... :lol:

Googlebot Deep Crawl / Unstimmigkeiten

Verfasst: 30.10.2005, 11:06
von Steffi
bei mir auch, um den 17.10. war der Bot noch sehr Aktiv danach holte er sich nur noch ne Hand voll Seiten....gestern aber kam er dann mit Volldampf und brachte auch gleich den G-Mozilla Bot mit

Verfasst: 30.10.2005, 12:41
von mark007q
... der Mozilla Bot beachtet leider in keinster Weise die robots.txt ... warum auch immer ...