Hoi Leuts,
habe eine Frage:
Wenn der Google-Bot auf meine Seite kommt folgt er ja allen Links. Aber wieviele Seiten spidert er pro Minute? Er wird ja nicht alle Links gleichzeitig hitten, sondern (hoffentlich) Wartezeiten haben. Wie hoch sind die? Und wieviele spidert er "gleichzeitig"?
Soweit ich das aus dem Kopf weiss war unser Rekord bei ~ 120.000 Googlebotaufrufen an einem Tag (bei einer Domain). Öfters sehe ich hier Werte um 50.000.
Wie finde ich das raus? Gibt es irgend ein Whitepaper? Es geht darum, dass der u.U. die Seite eines Kunden plättet, weil er zu schnell dynamische Seiten spidert, dass muss ich aber irgendwie checken, wie er sich verhält... und die Logfiles hab' ich natürlich nicht...
Ich denke, dass das unterschiedlich ist und ein wenig von Deiner Seite bzw. den reinkommenden Links, PR, etc. abhängt. So genau wird google das nicht verraten. Das Logfile wäre natürlich vorteilhaft. Andernfalls kannste ja in das Script irgendwas ala
if ( $useragent =~ /googlebot/ ) {
schreibe_log_wohin_auch_immer() ;
}
einbauen. Das wird die Laufzeit dann zwar auch ein wenig erhöhen, aber so viel wird das wohl nicht ausmachen.