Seite 1 von 1

robots.txt macht mehr Schaden, als das sie hilft

Verfasst: 25.08.2006, 13:09
von kaisen
Irgendwie finde ich leuten zu raten "zu schützende Verzeichnisse" in der Robots.txt auszuschließen, grobst fahrlässig.

Letztendlich ist es doch so, sobald ich ein Verzeichnis ausschließe ist es dem Bot dennoch bekannt, auch wenn es von außen garnicht verlinkt ist.

Manch böser Bot kommt da sicher auf dumme Ideen.

Sind solche bekannt ,die sich nicht dran halten?

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 25.08.2006, 13:13
von DiveSurfer
klar es gibt viele bot´s die sich nich an die robots.txt halten.
aber wenn ich ein verzeichnis habe das "zu schützen" ist dann bekommt es ne htaccess und gut ist ...

Verfasst: 25.08.2006, 13:16
von kaisen
ja gut weiß ich ja. danke
aber es soll ja viele geben, die so denken. mit Schutz meinte ich jetzt eigentlich auch eher "indizierungsschutz"

Verfasst: 16.12.2006, 18:13
von hborkott
Leg serverseitig im Zweifel noch 'ne 711 auf das Verzeichnis.
Ansonsten bieten auch Kondome keinen 100%igen Schutz.
Seriöse Bots halten sich idR an die robots.txt.

Verfasst: 16.12.2006, 18:52
von catcat
Wenn mich einer fragt, dann rate ich ihm, dass er das Verzeichnis in der robots.txt UND in der .htaccess ausschliessen soll...

Wenn jemand so keine Ahnung hat und sich auch nicht anderweitig kundig machen will, dann ist ihm nicht zu helfen.

(Das war nicht als Seitenhieb gedacht, sondern manche sind einfach zu faul)

Verfasst: 16.12.2006, 20:32
von hborkott
"robots.txt UND in der .htaccess" hatten wir doch oben schon;-)