Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

e-SocietyRobot - wer ist das?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Luki
PostRank 2
PostRank 2
Beiträge: 49
Registriert: 05.05.2004, 20:35

Beitrag von Luki » 07.02.2005, 13:40

Hi,

e-SocietyRobot(https://www.yama.info.waseda.ac.jp/~yamana/es/)
überrennt einen die letzten Tage geradezu...

wüsste gerne warum? und besonders wer das eigentlich ist...
die Website / Google ist dazu nicht sehr aussagekräftig

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 07.02.2005, 15:48

IP?

Hihawai
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 07.06.2005, 11:19

Beitrag von Hihawai » 07.06.2005, 11:28

Hierbei handelt es sich um ein Projekt der Waseda University in Japan. Die wollen die Aktualität der Webseiten - aller Webseiten - protokollieren und auswerten. Dazu rennt der Robot alle 6 Stunden über die Seiten. Wenn man das nicht möchte, kann man im robots.txt file folgenden Code einfügen:

User-agent: e-SocietyRobot
Disallow: /

Grüße

Hihawai

AndreasB.
PostRank 4
PostRank 4
Beiträge: 121
Registriert: 05.01.2005, 21:45

Beitrag von AndreasB. » 10.03.2006, 10:56

Hallo...

Ich habe das gleiche Problem mit diesem Robot.
Nur bei mir kommt er nicht nur alle 6 Stunden, sondern ist seit 2-3 Tagen permanent auf der Seite.

Die IP ist: 133.163.194.50

Ist der wichtig, oder kann man den bedenkenlos aussperren?
Nicht das der dann wichtige Informationen an Suchmaschinen weiter gibt.

Gruß
Andreas

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 10.03.2006, 11:30

> Ist der wichtig, oder kann man den bedenkenlos aussperren?

Unwichtig.

thetrasher
PostRank 5
PostRank 5
Beiträge: 238
Registriert: 31.12.2005, 10:50
Wohnort: Bad Tölz

Beitrag von thetrasher » 10.03.2006, 14:23

Hihawai hat geschrieben:Die wollen die Aktualität der Webseiten - aller Webseiten - protokollieren und auswerten. Dazu rennt der Robot alle 6 Stunden über die Seiten. Wenn man das nicht möchte, kann man im robots.txt ...
... und ich drucke mir gleich sämtliche Webseiten aus. Alle 6 Stunden. Wer das nicht möchte, kann seine Seiten vorher aus dem Netz nehmen. :silly:

Wieviele Idiotenbots brauchen wir noch? Wie empfänden es die "Forscher" an der Waseda Universität, wenn sich Tausende einen speziellen Waseda-Bot installieren, der fortlaufend die Aktualität und Erreichbarkeit der Universitätsseiten prüft?

Im Abstand von 6 Stunden, also alle 21600 Sekunden überprüfen die Japaner jede einzelne Internetseite. Die Leitung glüht. Sollten 21599 andere Forscher ebenfalls auf diese äußerst intelligente Idee kommen, hätte jede Seite zu jeder Sekunde Besuch. Interessant wird dieser Botfraß bei einer Botmenge von sagen wir 2.160.000, wobei jeder Bot lediglich alle 6 Stunden vorbeischaut. Bei durchschnittlich 100 Anfragen pro Sekunde sind viele (Shared-Server-)Internetpräsenzen überlastet. 2 Mio Bots sind aber noch sehr wenig, wenn man sich die Anzahl der Internetnutzer vor Augen hält. Will nicht jeder von uns seinen eigenen, verbesserten Google-Suchservice starten, einer P2P-Suchmaschine helfen oder unter die Forscher gehen? :lol!:

Antworten