Achja, das ist schon noch wichtig: Alle Besucher, auf die eine der aufgezählten RewriteConditions zutrifft - also z.B. wenn im User-agent der String
crawl auftaucht -, werden per RewriteRule auf die Seite 403.htm im Rootverzeichnis weitergeleitet und bekommen gleichzeitig eine 403er-Fehlermeldung.
Diese Seite kannst Du so gestalten, wie Du es für richtig hältst. Ich hab dort - falls ich mal doch einen menschlichen Besucher aussperren sollte - z.B. stehen, dass die Firewall nicht den Referer
und den User-agent blockieren darf, weil man sonst unweigerlich auf der Seite 403.htm landet. Du kannst statt auf die Seite 403.htm natürlich z.B. auch nach www .yahoo.jp weiterleiten...
Ich denke, ich poste jetzt doch noch einen weiteren Ausschnitt aus meiner .htaccess, um weiteren Fragen vorzubeugen - für mich ist heute nämlich Schluss.
EDIT: Habe die Quelle, von der ich die Festlegung der Standarddomain übernommen habe, gerade gefunden:
https://www.abakus-internet-marketing.d ... tml#148064 Mario 670 gebührt die Ehre.
LG, Hobby-SEO
Code: Alles auswählen
# keine Browser die mit Kleinbuchstaben anfangen mit einigen Ausnahmen
RewriteCond %{HTTP_USER_AGENT} ^[a-z0-9]+
RewriteCond %{HTTP_USER_AGENT} !^msnbot
RewriteCond %{HTTP_USER_AGENT} !^contype
RewriteCond %{HTTP_USER_AGENT} !^googlebot\-urlconsole
RewriteCond %{HTTP_USER_AGENT} !^gigabot
RewriteCond %{HTTP_USER_AGENT} !^appie
RewriteRule !403\.htm|robots\.txt - [F,L]
# keine Browser ohne Referer und ohne User agent
RewriteCond %{HTTP_REFERER} ^$ [NC]
RewriteCond %{HTTP_USER_AGENT} ^$ [NC]
RewriteCond %{THE_REQUEST} ^GET [OR]
RewriteCond %{THE_REQUEST} ^POST
RewriteRule !403\.htm - [F,L]
RewriteCond %{HTTP_USER_AGENT} link [NC]
RewriteCond %{HTTP_USER_AGENT} !tuezilla
RewriteCond %{HTTP_USER_AGENT} !backlink [NC]
RewriteRule !403\.htm|robots\.txt - [F,L]
RewriteCond %{HTTP_USER_AGENT} spider [NC]
RewriteCond %{HTTP_USER_AGENT} !icra [NC]
RewriteRule !403\.htm|robots\.txt - [F,L]