Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt macht mehr Schaden, als das sie hilft

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
kaisen
PostRank 6
PostRank 6
Beiträge: 462
Registriert: 29.11.2005, 10:16

Beitrag von kaisen » 25.08.2006, 13:09

Irgendwie finde ich leuten zu raten "zu schützende Verzeichnisse" in der Robots.txt auszuschließen, grobst fahrlässig.

Letztendlich ist es doch so, sobald ich ein Verzeichnis ausschließe ist es dem Bot dennoch bekannt, auch wenn es von außen garnicht verlinkt ist.

Manch böser Bot kommt da sicher auf dumme Ideen.

Sind solche bekannt ,die sich nicht dran halten?