Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wie macht Ihr das mit den Bots

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Ice Man
PostRank 9
PostRank 9
Beiträge: 2477
Registriert: 04.06.2003, 19:16

Beitrag von Ice Man » 20.11.2006, 14:59

Bisher hab ich das Thema immer ignoriert.

Aber nachdem so ein Websauger wieder mal für Traffic sorgte, muss ich mich wohl doch der Sache annehmen.

Wie prüft ihr, welcher Bot (Browser) euch besuchte.
Schaut ihr jeden Tag in die Logs ?
(meiner ist 10 MB groß :roll: )
Oder logt ihr alle Browser per Script mit ?

Und wenn dann was böses aufgetaucht ist, kommt es in die .htaccess rein ?

Und was ist, wenn da irgendwann mal 50 Zeilen drin sind, wird dadurch die Webseite spürbar langsam ?

So, das wars Lars ;)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 20.11.2006, 15:25

Wie prüft ihr, welcher Bot (Browser) euch besuchte.

Über die Logauswertung.
Schaut ihr jeden Tag in die Logs ?
Das macht die Logauswertung
meiner ist 10 MB groß )

Meintest du cm ?
Oder logt ihr alle Browser per Script mit ?
Nein, das geht über die Logauswertung.
kommt es in die .htaccess rein ?

Ja.
wird dadurch die Webseite spürbar langsam ?
Nein.

Übrigens, es gibt auch sowas wie bot-trap.de spider-trap.de usw.

Ice Man
PostRank 9
PostRank 9
Beiträge: 2477
Registriert: 04.06.2003, 19:16

Beitrag von Ice Man » 20.11.2006, 15:41

Alles klar ;)
Der mit den 10cm war gut :D

Also nutzt du sowas wie Mescalero oder ähnliche Tools ?

Ok, danke dann hau ich jetzt in Zukunft immer das Zeug in die .htaccess
Ich dachte immer, jeder Eintrag macht die Webseite langsamer.

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 20.11.2006, 15:47

Also nutzt du sowas wie Mescalero oder ähnliche Tools ?

Sicher gibbet da welche, die das nutzen, ich jedoch nicht.

Ich dachte immer, jeder Eintrag macht die Webseite langsamer.
Das stimmt auch, jedenfalls war das so, als Webseiten noch auf Systemen mit 8086er oder 80286er und 32 MByte Ram gehostet wurden. Mit viel Ram wird viel gecachet.

Habe auf einer Domain eine htaccess von mehreren hundert Zeilen, > 100000 Views am Tag. Eine Verlangsamung durch die htaccess ist nicht merkbar.

Ice Man
PostRank 9
PostRank 9
Beiträge: 2477
Registriert: 04.06.2003, 19:16

Beitrag von Ice Man » 20.11.2006, 17:36

Ok, hast recht, die heutigen Server haben ja meist alle mindestens einen Athlon drauf.

Na dann werd ich mir mal meine Logs anschauen, und nach Ungeziefer suchen :D

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag