Seite 1 von 1

Abwertung durch gesperrte Dokumente in der Robots.txt?

Verfasst: 18.09.2007, 17:35
von seomav
Hallo,

auf meiner Website habe ich ein Verzeichnis, in dem sich herunterladbare und von der Website gelinkte PDFs befinden. Es handelt sich dabei um Broschüren, Prospekte etc, die für Kunden erstellt wurden und anderen Kunden zur Ansicht dienen. Da ich immer wieder über den (für mich nicht relevanten Inhalt) der PDFs gefunden wurde, habe ich das Verzeichnis für Bots mittels robots.txt gesperrt.

Bei den Webmaster Tools habe ich gesehen, dass die gesperrten Dokumente bei g**gle als Fehler ausgezeichnet werden. "Fehler: Blabla.pdf durch robots.txt gesperrt."

Nun zur Frage: Kann sowas womöglich zur Abwertung führen, weil die Bots lauter Fehlermeldungen ausgeben? Das sollte doch wohl eigentlich nicht so sein...

Grüße
mav

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 19.09.2007, 11:13
von WilliWusel
Versieh die Links mit einem "nofollow", dann sollte Ruhe sein. Abwertung kann ich mir nicht vorstellen.

Verfasst: 19.09.2007, 12:48
von seomav
Hätt ich auch selbst drauf kommen können. Danke dir!

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 19.09.2007, 18:51
von Elradon
Ich glaube die Fehlermeldung kommt aber nur zustande, wenn du die PDFs in ner sitemap drin hast. Kann das bei dir der Fall sein?

Verfasst: 19.09.2007, 22:18
von seomav
Ja, sind sie. Da werd ich die auch mal entfernen. Danke!

Verfasst: 20.09.2007, 10:01
von luzie
neiiin! das ist keine "fehlermeldung" im eigentlichen sinne, sondern wird nur in der "fehlerliste" der webmastertools aufgeführt (also von abwertung kann gar keine rede sein) :lol:

ich hab mich darüber im google-webmasterforum auch schon beschwert, weil's die "google-denke" zeigt, die da lautet: "WIR MÜSsen ALlles WIssen", was dann dazu führt, dass sie robots.txt-sperren ganz frech unter "fehler" abbuchen, die schlawiner :-(