Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Fehler für URLs in XML-Sitemaps?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Synonym
PostRank 10
PostRank 10
Beiträge: 3708
Registriert: 09.08.2008, 02:55

Beitrag von Synonym » 16.04.2009, 09:16

Hallo zusammen,

da in meinem WMT nun schon seit fast 6 Monaten mehrere tausend Fehler angezeigt werden würde nun doch gerne mal wissen was ich dagegen tun soll.

Laut "Fehler für URLs in XML-Sitemaps" liegen bei mir fast 1000 Fehler in der Sitemap vor. Der Punkt ist jedoch, dass diese bemängelten Seiten zwar wirklich existieren, aber zum einen auf noindex stehen und auch noch nie in der Sitemap eingetragen waren.

Nachdem ich mal im Google-Forum nachgefragt hatte hieß es nur ich solle die Seiten per robots.txt sperren. Das habe ich so auch getan.

Nur stehen seit dem noch zusätzlich ca. 2000 Seiten im Bereich "URLs durch robots.txt eingeschränkt" und die vorherigen sind nach wie vor vorhanden.

Ich hätte die Seiten nun schon irgendwie da gerne raus denn so ist es auch fast nicht möglich "echte" Fehler zu finden.
Wie gesagt, die betroffenen Seiten stehen alle auf "noindex", was eigentlich reichen sollte. robots.txt wollte ich eigentlich nicht nehmen, da die dann ja wieder in der anderen Liste als Fehler auftauchen.

Ein ähnliches Spiel habe ich noch bei einer anderen Domain, bei der der Bot immer eine Session-ID anhängt. Bei mir gibt es aber keine Session und die Seite liefert einen Fehler 404 aus. Auch dort steht alles als "Fehler in der Sitemap" und robots.txt machte es nur noch schlimmer.

Weiß einer von auch wie man da vorgehen kann?