Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

PycURL/7.15.5

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
kaisen
PostRank 6
PostRank 6
Beiträge: 462
Registriert: 29.11.2005, 10:16

Beitrag von kaisen » 09.12.2006, 15:32

Kennt wer dieses Ding? Ich hab die vermutung das teil hat es auf meine mailer.php abgesehen.

Hat noch wer Probleme damit?
Ich krieg nun Zugriffe von zig komischen Seiten, die allerdings laut logfile die startseite besuchen, aber mit besagtem user agent PycURL/7.15.5

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Michael1967
PostRank 9
PostRank 9
Beiträge: 2158
Registriert: 26.10.2005, 23:51

Beitrag von Michael1967 » 09.12.2006, 15:39


robo
PostRank 8
PostRank 8
Beiträge: 837
Registriert: 23.12.2003, 19:41
Wohnort: Schwangau

Beitrag von robo » 10.12.2006, 21:13

Aus einem anderen Forum:
"Pycurl" ist standardgemäß die Einstellung der libcurl für unsere Python-Freunde
Aber das Vieh ist mir auch schon aufgefallen und in meine Bot-Trap reingetappt ...

cu, Robo :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 11.12.2006, 09:49

robo hat geschrieben:Aber das Vieh ist mir auch schon aufgefallen und in meine Bot-Trap reingetappt ...
Das "Vieh" ist eine API die von Hinz und Kunz genutzt wird. Ich empfehle, einfach alle User-Agents zu blocken, die mit "Java/", "PycURL", "Pear" und Konsorten beginnen. Damit wird man zwar die wenigsten echten Schädlinge los *, aber wenigstens verursacht einem nicht jedes dümmliche Skriptkid Traffic und DC.

*) Wer es professionell auf euren Content anlegt, kommt als Mozilla oder Googlebot von einer dynamischen IP, und vor allem beachtet so jemand die robots.txt (zumindest den Googlebot-Part).

kaisen
PostRank 6
PostRank 6
Beiträge: 462
Registriert: 29.11.2005, 10:16

Beitrag von kaisen » 11.12.2006, 10:03

ich hab einfach erstmal das formular-script umbenannt. und schon gibts keine zugriffe mehr von dem agent...

Barbarian
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 16.12.2006, 12:22

Beitrag von Barbarian » 16.12.2006, 12:25

Hi Leute

Dieser Bot oder was auch immer geistert nun auch auf meinem Forum rum und zwar massenhaft.

Ich bin in solchen Sachen ein Anfänger. Was muss ich in die "robots.txt" eintragen, um diesen loszuwerden?

Danke schonmal im Voraus für die Hilfe!

Gruss aus dem kalten Norden :wink:

Klaus
PostRank 7
PostRank 7
Beiträge: 595
Registriert: 05.08.2003, 08:21
Wohnort: Darmstadt

Beitrag von Klaus » 18.12.2006, 12:53

Hallo.

Mich hats auch erwischt.
Außer, das der das LogFile zuspammt pasiert nicht viel?
Ich würde ihn aber auch gern loswerden.
Zitat:
Sie können den Zugriff des Robots leicht per .htaccess unterbinden, indem Sie
eine deny Regel für den betreffenden UserAgent schreiben.

Leider bin ich auch ein Anfänger in diesen Dingen.
Wo kann ich etwas finde, wsa z.B. SloMo empfiehlt?

DAnke und Gruß
K.

Antworten