Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Also wenn es nachweislich "böse" Robots gibt, dann würde ich die zukünftig auch ausschließen wollen. Deine Frage scheint mir dann aber berechtigt, ob eine robots.txt da überhaupt etwas bringt. Denn warum sollte sich ein böser Robot an die robots.txt halten?katerina hat geschrieben:böse = ein Spammer, der Emailadressen sammelt oder so ähnlich.
Ich verstehe die Geschichte mit den Robots sowieso nicht ganz. Warum hat Abakus so eine lange robots.txt? Warum will man soviel robots von der Seite verbannen?
Gruß
K.
Gerade gestern habe ich mich damit wieder beschäftigt, hier mal eine kleine Liste, die ich teils selbst zusammengetragen, teils durch veröffentlichte Listen ergänzt habe. Das kann man direkt so in die .htaccess übernehmen. Natürlich erhebt die Liste keinen Anspruch auf Vollständigkeit.katerina hat geschrieben:Gibt es irgendwo eine Liste mit den richtig "bösen" robots (spammer usw.)?
Code: Alles auswählen
RewriteEngine on
RewriteCond %{HTTP_REFERER} iaea\.org [OR] # spambot
RewriteCond %{HTTP_USER_AGENT} Indy\ Library [OR] # spambot
RewriteCond %{HTTP_USER_AGENT} DTS\ Agent [OR] # spambot
RewriteCond %{HTTP_USER_AGENT} ^oBot [OR] # spybot
RewriteCond %{HTTP_USER_AGENT} ^Mozilla.*\ obot [OR] # spybot
RewriteCond %{HTTP_USER_AGENT} ^RIN\.\ Web\ crawler [OR] # spambot
RewriteCond %{HTTP_USER_AGENT} compatible\ ;\ MSIE\ 6.0 [OR] # spambot (note extra space before semicolon)
RewriteCond %{HTTP_USER_AGENT} ^IE\ \d\.\d\ Compatible.*Browser$ [OR] # spambot
RewriteCond %{HTTP_USER_AGENT} Microsoft\ URL\ Control [OR] # spambot
RewriteCond %{HTTP_USER_AGENT} \([^\)]+$ # spambot (User Agent lacks the closing parenthesis)
RewriteRule ^.* - [F]
Naja, Regular Expressions schauen immer aus, als ob man ein Gürteltier über die Tastatur gerollt hätte ...katerina hat geschrieben:vielen Dank. Die Liste sieht sieht ja richtig kompliziert aus.
Einen habe ich doch glatt vergessen:Aber so was habe ich gesucht. Dein Link hilft mir auch weiter (auch wenn mein Englisch zu wünschen übrig lässt).
Das kann ich dir auch sagen.katerina hat geschrieben:@myvasco
Hilft es, wenn man die Email-Adressen niergendwo im HTML-Code hat, nur als Variable im PHP-Code? Oder können die Spam-Bots es aus dem PHP-Code rausfischen?
Ja mei, so ist das halt.@robo
Das Gürteltier rollt aber ganz schön schräg!![]()
Kleiner Tip: wenn du Anker verlinkt hast, dann schau in den Logfiles, ob du irgendwelche Einträge findest, wo versucht wurde, eine Datei mit Anker anzufordern (also in der Art: GET /seite.html#anker), denn das war dann ein "dummer" Bot. Wenn du dann einen eindeutigen User Agent (Browserstring) findest oder eine IP-Adresse, die nicht zu einem Dialin-Port gehört, dann hast du schon was gefunden, was dir weiterhilft.mod_rewrite hab ich (nutze schon für PHP>HTML)
Ich muss mich jetzt generell mehr mit dem Thema beschäftigen. Habe auch schon etliche robot-Besuche im Logfile, muss herausfinden, ob es schädlich sein kann.
Das natürlich nicht, wie denn auch?katerina hat geschrieben:Ich gebe die Email-Adresse niergendwo aus (das hab ich gemeint mit "niergendwo im HTML-Code"). Ich habe ein Kontakt-Formular mit Submit-Button. Dann wird PHP code ausgeführt:
$email="mail@domain.de"
mail($email, $betreff, $message......);
und der ganze Inhalt des Formulars wird an die Adresse geschickt. Im HTML kommt nichts.
Die Frage war, ob die robots sowas lesen können.
Und meines Erachtens völlig übertrieben, jedenfalls nach heutigem Stand der Dinge. Es geht derzeit auch einfacher, sich wirkungsvoll gegen Spambots zu schützen.@myvasco
Die Verschlüsselung von www.arbeitnehmerkammer.de ist interessant, ich hab sowas noch nie gesehen.
Hmmm ... na das, was es heisst.@robo
Was heißt "eine IP-Adresse, die nicht zu einem Dialin-Port gehört"?