Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Na toll. Den ODP Link Checker ausgesperrt...

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 02.11.2005, 21:48

Hallöchen,

momentan läuft es ja echt großartig. Zuerst geht etwas beim phpbb-Update auf 2.0.18 schief, und jetzt habe ich auch noch Thomas Schilds Linkchecker einen 403-Error zurückgeschickt.

Schuld war folgende Regel in der .htaccess:

RewriteCond %{HTTP_USER_AGENT} link
RewriteRule !403\.htm|robots\.txt - [F,L]

Der User-Agent des ODP-Editors lautet nämlich:

Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0; ODP links test; https://tuezilla.de/test-odp-links-agent.html)

Hat jemand eine Idee, wie ich obige RewriteCond beibehalten, für "ODP links test" aber eine Ausnahme definieren kann?

LG, Hobby-SEO
Zuletzt geändert von Hobby-SEO am 03.11.2005, 17:43, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 02.11.2005, 21:53

RewriteCond %{HTTP_USER_AGENT} link
RewriteCond %{HTTP_USER_AGENT} !tuezilla
RewriteRule !403\.htm|robots\.txt - [F,L]

Das ist kein "offizieller" Linkprüfer, wie der Botbeschreibung zu entnehmen ist. Im Gegensatz zum Aussperren von Robozilla ist hier nicht mit sofortigem De-Listing zu rechnen.

Hobby-SEO
PostRank 5
PostRank 5
Beiträge: 337
Registriert: 04.06.2005, 13:56

Beitrag von Hobby-SEO » 02.11.2005, 22:39

Vielen Dank, Bull!

Funktioniert das eigentlich analog auch mit Deiner Positivliste?

Zum Beispiel:

RewriteCond %{HTTP_USER_AGENT} ^E.+ [OR]
RewriteCond %{HTTP_USER_AGENT} ^F.+ [OR]
RewriteCond %{HTTP_USER_AGENT} ^G.+
RewriteCond %{HTTP_USER_AGENT} !^Googlebot
RewriteCond %{HTTP_USER_AGENT} !^Gurgelbot
RewriteCond %{HTTP_USER_AGENT} !^Gigabot [OR]
RewriteCond %{HTTP_USER_AGENT} ^H.+ [OR]
RewriteCond %{HTTP_USER_AGENT} ^I+

RewriteRule !403\.htm|robots\.txt - [F,L]

Dieses Regelwerk müsste doch alle User-agents aussperren, die mit E, F, G, H oder I beginnen - mit Ausnahme des Googlebot, Gurgelbot und Gigabot.

Stimmt die Syntax? Oder habe ich irgendwo etwas - vielleicht ein [OR] oder was auch immer - vergessen?

Auf diese Weise müsste sich eigentlich eine recht kurze, aber effektive .htaccess-Lösung zur Sperrung von bösen Bots verwirklichen lassen.

Danke noch einmal!
Hobby-SEO

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag