Beitrag
von pi-de » 06.08.2003, 07:55
Eine robots.txt kann man nicht schützen.
Das ist eine Textdatei, da kann man definitiv mit php o.ä. nichts machen.
Damit Ordner nicht ausgelesen werden können, wenn keine index-Seite enthalten ist, kann man eine einfache index.html mit einem meta-refresh mit 0 auf die Hauptseite setzen, oder man ändert direkt die Serverkonfigurationen wenn möglich.
Es gibt noch viele Hoster die das auslesen von Ordnern standardmäßig zulassen.
Und wie bereits geschrieben wurde, Dateien die nirgens verlinkt sind, findet auch kein Spider!
Und selbst wenn sie jemand manuell anmelden würde, dürften sie nicht auftauchen, da keine eingehenden und keine ausgehenden Links enthalten sind!