auf meiner Website habe ich ein Verzeichnis, in dem sich herunterladbare und von der Website gelinkte PDFs befinden. Es handelt sich dabei um Broschüren, Prospekte etc, die für Kunden erstellt wurden und anderen Kunden zur Ansicht dienen. Da ich immer wieder über den (für mich nicht relevanten Inhalt) der PDFs gefunden wurde, habe ich das Verzeichnis für Bots mittels robots.txt gesperrt.
Bei den Webmaster Tools habe ich gesehen, dass die gesperrten Dokumente bei g**gle als Fehler ausgezeichnet werden. "Fehler: Blabla.pdf durch robots.txt gesperrt."
Nun zur Frage: Kann sowas womöglich zur Abwertung führen, weil die Bots lauter Fehlermeldungen ausgeben? Das sollte doch wohl eigentlich nicht so sein...
neiiin! das ist keine "fehlermeldung" im eigentlichen sinne, sondern wird nur in der "fehlerliste" der webmastertools aufgeführt (also von abwertung kann gar keine rede sein)
ich hab mich darüber im google-webmasterforum auch schon beschwert, weil's die "google-denke" zeigt, die da lautet: "WIR MÜSsen ALlles WIssen", was dann dazu führt, dass sie robots.txt-sperren ganz frech unter "fehler" abbuchen, die schlawiner
uzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]