Seite 1 von 1

Spamroboter

Verfasst: 23.03.2006, 10:35
von ArturO
Ich habe es seit einiger Zeit mit scharen von Spamrobots zu tun.
Und zwar kommen diese Robots immer mit
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)
und deraufgerufenen Seite als Referer, also immer interner Referer.
Alle Bots haben Javascript deaktiviert.
So kann ich die immer identifizieren.

Anfänglich haben die Bots in die Shoutbox und Newsbeiträge gespammt, wo hingegen in beiden Fällen nie Links zustande kamen, sondern der Quelltext angezeigt wurde, BBCode funktioniere ebenfalls nicht.
Oftmals handelte es sich um casinos und potenzmittel.
Jetzt da kein Newsspam mehr betrieben wird und die Shoutbox deaktiviert wurde erscheinen die Bots immernoch, jedoch ohne zu spammen. Die verfälschen einfach nur meine Besucherstatistik.

Die Hosts der Bots sind so unterschidlich dass ich kaum die 1000 verschiedenen und ständig wechselnden Ips oder Hostes sperren könnte.
Hier ein paar beispiele

Code: Alles auswählen

ContentPrincipal.racsa.co.cr
dsl-200-67-135-21.prod-empresarial.com.mx
ip-87-204-178-107.netia.com.pl
tech.ulsystems.co.jp
85.195.137.50.satgate.net
yehudayf.bb.netvision.net.il
200-161-70-177.dsl.telesp.net.br
Ich kann einfach keinen Zusammenhang erkennen.
innerhalb einer Minute erscheinen alle Bots gleichzeitig und machen sogar unterschiedlich viele Seitenaufrufe.
Mehrere tage lang wüten die dinger auf der Seite und dann ist für eine Woche wieder Ruhe.

Hat jemand selbige Erfahrung gemacht, bzw was kann ich machen damit es aufhört. Mir entstehen durch den traffik keine Kosten, jedoch empfingde ich die Counterverfälschung als nervend und die gefahr einer erneuten Spamwelle, wenn auch keine Spamlinks für die Spammer entstehen können.

Verfasst:
von

Spamroboter

Verfasst: 23.03.2006, 13:25
von robo
Hmmm ... eine Bot-Falle könnte helfen, falls es Deppen-Bots sind, die sich nicht an robots.txt halten. Ich verwende die von https://www.kloth.net/internet/bottrap.php und habe sie aber noch etwas modifiziert.

cu, Robo :)

Spamroboter

Verfasst: 23.03.2006, 15:04
von ArturO
Das ist tatsächlich eine interessanet Methode Robots zu erkennen und auszuschließen.
Obgleich die Methodik mit der Datei wohl Einbußungen in der Ladezeit bedeuten könnte. Eine Datenbankabfrage wäre viel effizienter.

Jedoch befürchte ich, dass die Art von Spamrobotern die meine Seite besuchen nicht Links folgen, sondern nur fest vorgegebenen URLs.
Bei der ersten "Angriffswelle" haben die Bots stets nur 2 verschiedene URLs aufgerufen um einmal in die News und in die Shoutbox zu spammen. Der shoutboxspam erfolgte über eine weit hinten liegende Listenseite, was jedoch egal ist, da die Shoutbox auf jeder Seite includet wird.
Schätzungsweise suchen die Roboter jetzt auf jeder Seite wo die Shoutbox-Eingabefelder gesichtet wurden nach deren vorhandensein (sprich:auf Allen).