Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

My_Own_Agent

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
djmarten1
PostRank 3
PostRank 3
Beiträge: 79
Registriert: 07.04.2007, 17:53

Beitrag von djmarten1 » 04.12.2007, 18:55

hab heut besuch von My_Own_Agent gehabt, der wie ein wilder war.

kommt mit einer deutschen ip von t-online.

kann mir jemand sagen was genau das ist, im netz findet man nicht wirklich was.

der 2te besuch ist von Java/1.6.0_03
und nummer 3
WWW-Mechanize/1.20

da hab ich nur ein beitrag gefunden drüber, aber weiß nun nicht ob ich den sperren solte bzw alle 3 ?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Anonymous

Beitrag von Anonymous » 04.12.2007, 22:57

My_Own_Agent sieht nach mnoGoSearch aus:
https://www.mnogosearch.org/doc/msearch ... eader.html
würde auch zu dem "wilden" Verhalten passen....

WWW-Mechanize dürfte eine perl class sein:
https://search.cpan.org/dist/WWW-Mechanize/

und Java ist eben Java... könnte ein einfaches javaaplet sein das auf einer website für eine Seitenanalyse eingebaut ist....

djmarten1
PostRank 3
PostRank 3
Beiträge: 79
Registriert: 07.04.2007, 17:53

Beitrag von djmarten1 » 05.12.2007, 00:13

hallo net(t)worker

danke für die erklärung

also heistd as das sich jemand bei mnogosearch.org

das script gesaugt /gekauft hat und sein My_Own_Agent bei mir freien lauf gelassen hat?

kann ich My_Own_Agent denoch sperren oder gibt es andere crawler / spider die man nicht sperren solte mit dem namen?

zu WWW-Mechanize werd ich leider denoch nicht schlau, solte man bei dem perl class vorsichtig sein?

und zu dem java gibt es da auchwas zu beachten.

sorry ist halt alles noch recht neu :oops:

bin zwar hier jeden tag am lesen, aber bei so manchen sachen verstehh ich nur bahnhof

HBurk
PostRank 6
PostRank 6
Beiträge: 451
Registriert: 11.04.2006, 13:14
Wohnort: Süd Hessen

Beitrag von HBurk » 14.12.2007, 12:09

kann ich My_Own_Agent denoch sperren oder gibt es andere crawler / spider die man nicht sperren solte mit dem namen?
ich habe die Dinger einfach gesperrt :

RewriteCond %{HTTP_USER_AGENT} ^My_Own_Agent
RewriteCond %{HTTP_USER_AGENT} ^Jakarta*
RewriteCond %{HTTP_USER_AGENT} ^Java

:idea:

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag