Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Abwertung durch gesperrte Dokumente in der Robots.txt?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
seomav
PostRank 4
PostRank 4
Beiträge: 109
Registriert: 07.09.2007, 12:37

Beitrag von seomav » 18.09.2007, 17:35

Hallo,

auf meiner Website habe ich ein Verzeichnis, in dem sich herunterladbare und von der Website gelinkte PDFs befinden. Es handelt sich dabei um Broschüren, Prospekte etc, die für Kunden erstellt wurden und anderen Kunden zur Ansicht dienen. Da ich immer wieder über den (für mich nicht relevanten Inhalt) der PDFs gefunden wurde, habe ich das Verzeichnis für Bots mittels robots.txt gesperrt.

Bei den Webmaster Tools habe ich gesehen, dass die gesperrten Dokumente bei g**gle als Fehler ausgezeichnet werden. "Fehler: Blabla.pdf durch robots.txt gesperrt."

Nun zur Frage: Kann sowas womöglich zur Abwertung führen, weil die Bots lauter Fehlermeldungen ausgeben? Das sollte doch wohl eigentlich nicht so sein...

Grüße
mav

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

WilliWusel
PostRank 9
PostRank 9
Beiträge: 1257
Registriert: 21.08.2006, 14:55

Beitrag von WilliWusel » 19.09.2007, 11:13

Versieh die Links mit einem "nofollow", dann sollte Ruhe sein. Abwertung kann ich mir nicht vorstellen.

seomav
PostRank 4
PostRank 4
Beiträge: 109
Registriert: 07.09.2007, 12:37

Beitrag von seomav » 19.09.2007, 12:48

Hätt ich auch selbst drauf kommen können. Danke dir!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Elradon
PostRank 8
PostRank 8
Beiträge: 867
Registriert: 23.08.2006, 15:36

Beitrag von Elradon » 19.09.2007, 18:51

Ich glaube die Fehlermeldung kommt aber nur zustande, wenn du die PDFs in ner sitemap drin hast. Kann das bei dir der Fall sein?

seomav
PostRank 4
PostRank 4
Beiträge: 109
Registriert: 07.09.2007, 12:37

Beitrag von seomav » 19.09.2007, 22:18

Ja, sind sie. Da werd ich die auch mal entfernen. Danke!

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 20.09.2007, 10:01

neiiin! das ist keine "fehlermeldung" im eigentlichen sinne, sondern wird nur in der "fehlerliste" der webmastertools aufgeführt (also von abwertung kann gar keine rede sein) :lol:

ich hab mich darüber im google-webmasterforum auch schon beschwert, weil's die "google-denke" zeigt, die da lautet: "WIR MÜSsen ALlles WIssen", was dann dazu führt, dass sie robots.txt-sperren ganz frech unter "fehler" abbuchen, die schlawiner :-(
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag