Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Anzahl Botzugriffe - ein paar (eigene) Erfahrungswerte

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
bonneville
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 02.09.2005, 14:58

Beitrag von bonneville » 19.11.2005, 00:22

Hi Leute,

mit Sorge kämpfe ich mit dem Problem, dass meine Seite nur noch wenig, aber stetig vom GoogleBot2.1 gecrawlt wird. Dabei kommt er irgendwann am Tag und zieht sich sein 900 Seiten innerhalb von einer Stunde rein.

Wir haben bei dem Projekt ca. 1.500.000 Seiten im Index und PR7 gehabt. Der GBot2.1 crawlte ca. 15.000-20.000 Seiten am Tag.
Seit Anfang August ist das von einem Tag auf den anderen auf 900 Seiten pro Tag abgerutscht.
Wohlgemerkt ist der Google-MozillaBot hingegen weiterhin ab und zu sehr fleißig (15.000, manchmal 100.000), auch Yahoo Schlürf leckert am Tag so 80.000-150.000 Seiten.

Man sagt ja auch, dass sich mit steigendem Pagerank die Spideraktivität erhöht.

Was stellt 900 Seiten/Tag für einen PR dar?
Wenn 15.000 bei PR7 auf 900 fallen, habe ich da einen PR-Penalty? PR2 oder so? (In der Toolbar steht noch PR7, auch nach dem letzten PR-Update)

Wie sind eure Zahlen so? Vielleicht finden wir eine Tabelle, welcher PR welche Botzahlen repräsentiert!?

Gruß Bonneville