in wie weit ist eigentlich die in den Webmastertools festgelegte Crawling-Geschwindigkeit an der Realität orientiert?
Ich stelle schon länger fest, dass eine meiner statischen Seiten die alle paar Wochen mal neue Texte bekommt schon lange die "schnelle" Geschwindigkeit hat und ein Blog, der jeden Tag 1-2 neue Beiträge bekommt, etwa gleich stark und gleich groß ist wie die statische Seite, kann nur in der Normalgeschwindigkeit gecrawlt werden.
Spielt da die Geschwindigkeit des Servers eventuell eine Rolle? Will Google mich nicht überlasten?
Das ist doch sowieso käse.. Meines erachtens hat man nur nachteile wenn man schnelles crawling einstellt - einige meinen auch es würde sie in den Serps runterziehen... Übrigens ist das nicht die einstellung wie oft gecrawelt wird..