Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Abwertung durch gesperrte Dokumente in der Robots.txt?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
seomav
PostRank 4
PostRank 4
Beiträge: 109
Registriert: 07.09.2007, 12:37

Beitrag von seomav » 18.09.2007, 17:35

Hallo,

auf meiner Website habe ich ein Verzeichnis, in dem sich herunterladbare und von der Website gelinkte PDFs befinden. Es handelt sich dabei um Broschüren, Prospekte etc, die für Kunden erstellt wurden und anderen Kunden zur Ansicht dienen. Da ich immer wieder über den (für mich nicht relevanten Inhalt) der PDFs gefunden wurde, habe ich das Verzeichnis für Bots mittels robots.txt gesperrt.

Bei den Webmaster Tools habe ich gesehen, dass die gesperrten Dokumente bei g**gle als Fehler ausgezeichnet werden. "Fehler: Blabla.pdf durch robots.txt gesperrt."

Nun zur Frage: Kann sowas womöglich zur Abwertung führen, weil die Bots lauter Fehlermeldungen ausgeben? Das sollte doch wohl eigentlich nicht so sein...

Grüße
mav