Bastele grad wieder an meinem Backlink Checker herum und hab mir eben mal ein paar robots.txt ausgeben lassen, da sind viele Kuriositaeten dabei (viele robots.txt sind vom Aufbau auch einfach nur falsch), z.B. fuer was soll folgendes bitte stehen?
User-agent: *
Disallow:
uebersetzt: Regel fuer alle User-Agents, verbiete: (hab ich wohl vergessen, was ich verbieten wollte)...
Noch lustiger sind Leute die in ihrer robots.txt (natuerlich nicht interpretierten) PHP Code haben oder der Clou: mit Komma getrennt darin Keywords auflisten.
Viele sperren auch einfach alle Robots aus und wundern sich warum ihre Domain nie vom "PR -1" weg kommt
