Seite 1 von 1
Spam Bots zentral loggen - was fuer Moeglichkeiten gibt es?
Verfasst: 21.08.2006, 13:42
von Airport1
Wenn man Fallen fuer Spam Bots aufstellt, aber Spam Bots zentral loggen moechte (also nicht auf dem lokalen Webserver, sondern alle Webseiten sollen den Versuch an einen zentralen Webserver melden), was gibt es da fuer Moeglichkeiten?
- ein Image was auf dem zentralen Server aufgerufen wird, entfaellt wohl da Bots ja i.d.R. keine Bilder abrufen (oder doch?)
- ein iFrame wird nur im Browser ausgefuehrt, aber nicht vom Bot..
- angebl. werden Redirects von den Bots nicht verfolgt (laut meinem Log aber doch?)
- was gibt es noch fuer Moeglichkeiten?
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 21.08.2006, 13:57
von marc75
In PHP zum Beispiel, wenn die Leute dieses benutzen,
Dann einfach ein Script schreiben das prüft ob es ein Spambot sein könnte, das Script liegt bei den Nutzern, wenn Spambot ja wird eine externe PHP Datei (zu deinen Server) aufgerufen und der Botname mit übergeben (per GET). Auf deinen Rechner schaust du dann nach ob der Name bereits bekannt ist, ansonsten speicherst du ihn.
Kann auch sein das ich dich jetzt falsch verstanden habe.
Verfasst: 21.08.2006, 17:25
von Kristian
Hallo
Ich will dir mal den Stand der Dinge auf teergrubing.de verraten.
1.) JavaScript in den Seiten, einfach aber wirkungsvoll gegen Kontentklau.
Guckst du:
https://www.teergrubing.de/amputatis/video.js
redirected auf Script welches logt und auf das eigentliche Ziel weiterleitet.
2.) Bot-Trap mit Logfile
3.) Basiswissen (Botkennung / IP's) aus dem Netz
4.) Teergrube zum Test, wer länger als 2 Minuten bleibt ist kaum ein User.
5.) Auswertung der Logfiles
6.) Aufbereiten und Verteilen einer entsprechenden .htaccess
7.) Aufbereiten der eigenen Rules und Analyse-Progs
Das wiederholt man.....
Was für alle Ansätze, meinen deinen seinen, sinnvoll wäre, wenn wir uns auf ein DB-Format einigen (wohl MySQL), eine Datenbank schaffen und die dann alle nutzen.
Gruss Kristian
Verfasst: 21.08.2006, 18:38
von Boa
Kristian hat geschrieben:4.) Teergrube zum Test, wer länger als 2 Minuten bleibt ist kaum ein User.
Was für Seiten hast du denn?
Verfasst: 21.08.2006, 22:14
von Kristian
Hallo
Du verstehst es falsch.
Vermutlich böse Bots werden zum Test auf eine solche Seite geleitet:
https://www.teergrubing.de/amputatis/la ... us.test.de
Tschüssssss RAM....
Schau dir die Seite min. 2 Minuten an, dann weißt du warum die keiner 2 Minuten ansieht.
Gruss Kristian
Verfasst: 21.08.2006, 22:29
von Airport1
Wenn Du wirklich sicher gehen willst dass das kein Mensch lange aushaelt bau zudem noch sowas wie
https://www.ranking-hits.de/c64.php ein .. das halt nicht mal ich lange genug aus, das ist Augenkrebs pur ,)
Verfasst: 22.08.2006, 20:24
von fornex
Image + SID generieren, wenn das ding via JS oder Iframe innerhalb der nächsten 2-3 Minuten nicht aufgerufen wird, handelt es sich um einen Bot.
PS: aber wir können auch ein bissel JS, deswegen gut crypten lassen

Verfasst: 28.08.2006, 20:28
von Kristian
Hallo
@Airport1
Ev. sollte man nicht so geizen mit dem Kontent. Geiz ist zwar geil aber nicht alles...
Mal als ersten Entwurf:
https://myengines.in/garrulus/
Die wollen doch nur Kontent, den können sie ja auch kriegen

Das Ganze wird wie die Bot-Trap verwendet, hat aber den Vorteil, dass es unbegrenzt viel Kontent gibt. Man findet seine Schäflein wieder, indem man ein Kunstwort einbaut, dass G. noch nicht kennt. Die Betonung liegt auf "noch".
Gruss Kristian
PS: garrulus -i (m) => Schwätzer
[EDIT]
Sorry, der Kontent ist nicht mit Sicherheit jugendfrei, ich hatte vergessen es zu sagen.