Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Semi-automatische Bot-Sperre per .htaccess

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
yoogler
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 19.07.2006, 09:08

Beitrag von yoogler » 26.07.2006, 16:00

Hi.

Ich habe mir eine .htaccess-Datei gebastelt, um zumindest einige unliebsame Bots auszusperren. Mir ist klar, dass ich damit nicht alle "bad bots" erwische, aber ich habe keine Lust auf eine bot-trap und will auch nicht ständig meine .htaccess-Datei pflegen u. aktualisieren müssen. Es soll eine einfache Lösung mit (bekanntermaßen) begrenzter Wirksamkeit sein.

Wichtig ist mir nur, dass nur bots/spider/crawler ausgesperrt werden.

Folgender Code soll alle Zugriffe mit "spider", "bot" und "crawler" aussperren, ausser Google, MSN, Yahoo und DMOZ. Robots.txt bleibt immer lesbar.

Code: Alles auswählen

RewriteCond %{HTTP_USER_AGENT} ^.*spider.*$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^.*bot.*$ [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^.*crawl.*$ [NC]
RewriteCond %{HTTP_USER_AGENT} !(msnbot|googlebot|Robozilla|slurp) [NC]
RewriteRule !robots.txt robots.txt [C]
RewriteRule ^.*$ - [F,L]
Was haltet ihr davon? Optimierungsvorschläge? Kritik? Mögliche Probleme??

Gruß Yoogler
Zuletzt geändert von yoogler am 26.07.2006, 16:42, insgesamt 1-mal geändert.