robots.txt und Mozilla-Bot
Verfasst: 06.12.2005, 08:45
auf Grund eines kleineren DoS-Problems haben wir unsere Sperrmaßnahmen etwas verschärft. Nun tritt das Problem auf, dass ich der Google aussperrt, weil er die robots.txt nicht befolgt:
er liest die robots.txt:
66.249.66.231 - - [06/Dec/2005:06:44:05 +0100] "GET /robots.txt HTTP/1.1" 200 266 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html)"
er bekommt diese robots.txt:
User-agent: *
Disallow: /cgi-bin/
...
Disallow: /blog/
und 27sec später will er auf das Verzeichnis /blog/ zugreifen:
66.249.66.231 - - [06/Dec/2005:06:44:32 +0100] "GET /blog/index.php/all?blog=1&page=1&disp=posts&paged=1 HTTP/1.1" 200 - "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html)"
Dieser Aufruf löst die Falle aus, weil da eben die DoS/Spam-Attacke draufliegt.
Hat jemand eine Erklärung?
er liest die robots.txt:
66.249.66.231 - - [06/Dec/2005:06:44:05 +0100] "GET /robots.txt HTTP/1.1" 200 266 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html)"
er bekommt diese robots.txt:
User-agent: *
Disallow: /cgi-bin/
...
Disallow: /blog/
und 27sec später will er auf das Verzeichnis /blog/ zugreifen:
66.249.66.231 - - [06/Dec/2005:06:44:32 +0100] "GET /blog/index.php/all?blog=1&page=1&disp=posts&paged=1 HTTP/1.1" 200 - "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +https://www.google.com/bot.html)"
Dieser Aufruf löst die Falle aus, weil da eben die DoS/Spam-Attacke draufliegt.
Hat jemand eine Erklärung?