Seite 1 von 1

Spam Bots zentral loggen - was fuer Moeglichkeiten gibt es?

Verfasst: 21.08.2006, 13:42
von Airport1
Wenn man Fallen fuer Spam Bots aufstellt, aber Spam Bots zentral loggen moechte (also nicht auf dem lokalen Webserver, sondern alle Webseiten sollen den Versuch an einen zentralen Webserver melden), was gibt es da fuer Moeglichkeiten?

- ein Image was auf dem zentralen Server aufgerufen wird, entfaellt wohl da Bots ja i.d.R. keine Bilder abrufen (oder doch?)
- ein iFrame wird nur im Browser ausgefuehrt, aber nicht vom Bot..
- angebl. werden Redirects von den Bots nicht verfolgt (laut meinem Log aber doch?)
- was gibt es noch fuer Moeglichkeiten?

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 21.08.2006, 13:57
von marc75
In PHP zum Beispiel, wenn die Leute dieses benutzen,

Dann einfach ein Script schreiben das prüft ob es ein Spambot sein könnte, das Script liegt bei den Nutzern, wenn Spambot ja wird eine externe PHP Datei (zu deinen Server) aufgerufen und der Botname mit übergeben (per GET). Auf deinen Rechner schaust du dann nach ob der Name bereits bekannt ist, ansonsten speicherst du ihn.

Kann auch sein das ich dich jetzt falsch verstanden habe.

Verfasst: 21.08.2006, 17:25
von Kristian
Hallo

Ich will dir mal den Stand der Dinge auf teergrubing.de verraten.

1.) JavaScript in den Seiten, einfach aber wirkungsvoll gegen Kontentklau.
Guckst du: https://www.teergrubing.de/amputatis/video.js
redirected auf Script welches logt und auf das eigentliche Ziel weiterleitet.
2.) Bot-Trap mit Logfile
3.) Basiswissen (Botkennung / IP's) aus dem Netz
4.) Teergrube zum Test, wer länger als 2 Minuten bleibt ist kaum ein User.
5.) Auswertung der Logfiles
6.) Aufbereiten und Verteilen einer entsprechenden .htaccess
7.) Aufbereiten der eigenen Rules und Analyse-Progs

Das wiederholt man.....

Was für alle Ansätze, meinen deinen seinen, sinnvoll wäre, wenn wir uns auf ein DB-Format einigen (wohl MySQL), eine Datenbank schaffen und die dann alle nutzen.

Gruss Kristian

Verfasst: 21.08.2006, 18:38
von Boa
Kristian hat geschrieben:4.) Teergrube zum Test, wer länger als 2 Minuten bleibt ist kaum ein User.
Was für Seiten hast du denn?

Verfasst: 21.08.2006, 22:14
von Kristian
Hallo

Du verstehst es falsch.
Vermutlich böse Bots werden zum Test auf eine solche Seite geleitet:
https://www.teergrubing.de/amputatis/la ... us.test.de
Tschüssssss RAM....
Schau dir die Seite min. 2 Minuten an, dann weißt du warum die keiner 2 Minuten ansieht. ;-)

Gruss Kristian

Verfasst: 21.08.2006, 22:29
von Airport1
Wenn Du wirklich sicher gehen willst dass das kein Mensch lange aushaelt bau zudem noch sowas wie https://www.ranking-hits.de/c64.php ein .. das halt nicht mal ich lange genug aus, das ist Augenkrebs pur ,)

Verfasst: 22.08.2006, 20:24
von fornex
Image + SID generieren, wenn das ding via JS oder Iframe innerhalb der nächsten 2-3 Minuten nicht aufgerufen wird, handelt es sich um einen Bot.


PS: aber wir können auch ein bissel JS, deswegen gut crypten lassen ;)

Verfasst: 28.08.2006, 20:28
von Kristian
Hallo

@Airport1

Ev. sollte man nicht so geizen mit dem Kontent. Geiz ist zwar geil aber nicht alles...
Mal als ersten Entwurf:
https://myengines.in/garrulus/

Die wollen doch nur Kontent, den können sie ja auch kriegen ;-)
Das Ganze wird wie die Bot-Trap verwendet, hat aber den Vorteil, dass es unbegrenzt viel Kontent gibt. Man findet seine Schäflein wieder, indem man ein Kunstwort einbaut, dass G. noch nicht kennt. Die Betonung liegt auf "noch".

Gruss Kristian

PS: garrulus -i (m) => Schwätzer

[EDIT]
Sorry, der Kontent ist nicht mit Sicherheit jugendfrei, ich hatte vergessen es zu sagen.