Googlebot kam heute vorbei, griff sich die aktuelle robots.txt, in der ein Verzeichnis und explizit eine Datei ausgeschlossen sind. Mit anderer IP saugte sie dann ein paar Seiten korrekt, um dann just diese disallowed-Seite zu holen. Noch schöner: Sie produzierte dann noch einen 404. Der einzige Link zur disallowed-Seite ist ein Bildlink meinetwegen mit dem Bild nichtspidern.gif und zeigt nach nichtspidern.html - die Anfrage war dann nichtspidern.gif/nichtspidern.html . Die Seite, in der der richtige Link placiert ist ist W3C-validiertes XHTML 1.0 - sollte Googlebot nicht in der Lage sein dies korrekt zu interpretieren? und die robots.txt-Verletzung daher rühren? Oder ist das eine 404-Test?