Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Woher kommen diese krassen Zugriffe?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Eddie
PostRank 5
PostRank 5
Beiträge: 339
Registriert: 14.11.2004, 14:41
Wohnort: Würzburg

Beitrag von Eddie » 30.03.2008, 02:38

Hallo allerseits,

seit 3 Tagen habe ich zweimal taeglich dermassen viel Traffic auf meiner Seite, dass der Server für 20 Minuten auf 500% läuft (also normal scheint mir ein Load von 1, aber da sind's dann glatte 50). Der Server ist dann auch entsprechend schwer erreichbar :-(
Das Ganze ist immer zu denselben Zeiten!!!

Per Hand herauszufinden, wer das ist, ist wohl etwas aufwaendig, das Tages-Logfile hat um die 100.000 Zeilen. Da per Hand die Guten von den Bösen zu trennen ist wohl eher Glückssache.

Koennt ihr mir sagen, ob es ein Tool gibt, das mir da Auskunft gibt, welcher Client die meisten Aufrufe produziert? Und am besten waere es natuerlich, wenn er mir auch gleich sagt, ob das ein SuchmaschinenRobot war, den ich lieber nicht sperren sollte!

Ich probiere gerade AWStats aus, bin aber noch nicht wirklich dahinter gekommen, ob mir das hilft. Ist grad am analyisieren ;-)

Danke euch,
Eddie

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Anonymous

Beitrag von Anonymous » 30.03.2008, 10:07

mescalero hat eine 30tage testzeit
bei 100000 zeilen kann die auswertung eine weile dauern.

Ice Man
PostRank 9
PostRank 9
Beiträge: 2477
Registriert: 04.06.2003, 19:16

Beitrag von Ice Man » 30.03.2008, 10:54

500% sind das 5 Fache vom Normalwert ;)

Fireball
PostRank 4
PostRank 4
Beiträge: 122
Registriert: 18.07.2007, 20:16

Beitrag von Fireball » 30.03.2008, 11:10

Bei mir war es gestern mal wieder Yahoo :D

Bild

everflux
PostRank 8
PostRank 8
Beiträge: 939
Registriert: 01.05.2006, 17:15

Beitrag von everflux » 30.03.2008, 12:44

Du kannst ja, wenn es immer zur gleichen Zeit ist, einfach mal die Logdatei in echtzeit anschauen. ( tail -f auf unix) So krieg ich meistens die Fieslinge in den Griff.
Ansonsten mal nach IPs gruppiert anschauen.
https://everflux.de/ blogging about life, programming, seo and the net

emel
PostRank 9
PostRank 9
Beiträge: 1045
Registriert: 19.12.2007, 10:29

Beitrag von emel » 30.03.2008, 13:05

Eigentlich ist ne load von 1 schon viel

und vielleicht ist ja webalizer was für dich. zwar ist der nicht so schön wie awstats aber leichter zu handhaben.
Suche / Biete L*nks - PM an mich

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 30.03.2008, 14:59

@Fireball

3xx Bots in einer Stunde ist ja nun nichts. Bei der Anzahl in einer Stunde würde ich weinen, weil es einfach zu wenige sind.

@Eddi
Das Ganze ist immer zu denselben Zeiten!!!
Da würde ich mal auf einen Cron-Job o.ä. tippen, der die ganzen Ressourcen frist, wie eine Logauswertung.
Sollten es Zugriffe sein, ist es ja nun einfach, ins Log zu sehen, und bei der Zeit nachzuschauen, ob dort massive Zugriffe von irgendwas aus irgendwo waren. Das gelingt sogar bei vielen 100.000 Logzeilen, z.B. über einen Editor wie joe und Suchfunktion oder sowas.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag