Also, in der Regel hab ich so 10 Besucher am Tag (Visitors).
Aber 3000 - 10.000 Seitenaufrufe pro Tag (Visits).
Und dann schauen auch noch 1000 Spider am Tag vorbei. (Yahoo ist besonders fleißig, der kommt auch schon 4.000 mal am Tag vorbei.
VERÜCKT
denn, schließe ich per robots.txt alle robots aus, bleibt die Anzahl der robots konstant, die Seitenaufrufe laufen aber kontinuierlich weiter. So 2 bis 3 Seitenaufrufe pro Sekunde....
Bis dato dachte ich immer, für die zahlreichen Seitenaufrufe (visits) wären die robots verantwortlich, jetzt aber frage ich mich:
Wer wenn nicht die Robots rufen denn meine Seiten auf??? Richtige Besucher können es ja nicht sein....wer denn???
Einige Bots sind auch als Firefox unterwegs, ich hab auf meiner Webseite auch ständig ca. 50 solche Kameraden die versuchen irgend einen Schrott in mein Gästebuch zu schreiben.
Die robots.txt hindert Yahoo und Google übrigends nicht daran trozdem auf die Seiten zuzugreifen.