Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Fehler für URLs in XML-Sitemaps?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Synonym
PostRank 10
PostRank 10
Beiträge: 3708
Registriert: 09.08.2008, 02:55

Beitrag von Synonym » 16.04.2009, 09:16

Hallo zusammen,

da in meinem WMT nun schon seit fast 6 Monaten mehrere tausend Fehler angezeigt werden würde nun doch gerne mal wissen was ich dagegen tun soll.

Laut "Fehler für URLs in XML-Sitemaps" liegen bei mir fast 1000 Fehler in der Sitemap vor. Der Punkt ist jedoch, dass diese bemängelten Seiten zwar wirklich existieren, aber zum einen auf noindex stehen und auch noch nie in der Sitemap eingetragen waren.

Nachdem ich mal im Google-Forum nachgefragt hatte hieß es nur ich solle die Seiten per robots.txt sperren. Das habe ich so auch getan.

Nur stehen seit dem noch zusätzlich ca. 2000 Seiten im Bereich "URLs durch robots.txt eingeschränkt" und die vorherigen sind nach wie vor vorhanden.

Ich hätte die Seiten nun schon irgendwie da gerne raus denn so ist es auch fast nicht möglich "echte" Fehler zu finden.
Wie gesagt, die betroffenen Seiten stehen alle auf "noindex", was eigentlich reichen sollte. robots.txt wollte ich eigentlich nicht nehmen, da die dann ja wieder in der anderen Liste als Fehler auftauchen.

Ein ähnliches Spiel habe ich noch bei einer anderen Domain, bei der der Bot immer eine Session-ID anhängt. Bei mir gibt es aber keine Session und die Seite liefert einen Fehler 404 aus. Auch dort steht alles als "Fehler in der Sitemap" und robots.txt machte es nur noch schlimmer.

Weiß einer von auch wie man da vorgehen kann?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 16.04.2009, 10:12

Im Google-Forum haben sie dir nicht gesagt, dass das keine "Fehler" sind? War ich wohl grade nicht da ^^ ... Es sind diagnostische Meldungen, die wirst du nicht los, braucht's aber auch nicht, es ist einfach ein Service von Google dir alles aufzulisten was:

1. nicht gefunden wird
2. gesperrt ist (ob noindex oder robots.txt)

Immerhin steht auf

Dashboard > Diagnose > Web-Crawl

dieser Hinweis:

Hinweis: Möglicherweise sind nicht alle Fehler tatsächlich Probleme. Zum Beispiel haben Sie vielleicht Crawler für bestimmte Seiten absichtlich gesperrt. In diesem Fall müssen Sie den Fehler nicht korrigieren.
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

Synonym
PostRank 10
PostRank 10
Beiträge: 3708
Registriert: 09.08.2008, 02:55

Beitrag von Synonym » 16.04.2009, 15:01

Hi luzie,

na dass das nicht alles echte Fehler sind ist mir schon klar. Allerdings können dort ja auch echte Fehler stehen, etwa wenn auf der Seite was falsch programmiert wurde. Der Sinn dieser Auflistung ist doch eigentlich Fehler zu finden und diese falls erforderlich zu ändern.
Dein Zitat sagt ja genau das aus. " In diesem Fall müssen Sie den Fehler nicht korrigieren" folglich, in den anderen wäre es schon sinnvoll....

Nur wenn da halt mehrere tausend Einträge sind, dann ist das sehr mühsam alle einzeln durchzusehen bis man eventuell einen "echten" Fehler findet.

Wenn Meldungen angezeigt werden im Bereich "durch robots.txt gesperrt" und diese dort auch gesperrt sind, dann verstehe ich das sehr gut.

Wenn es aber heißt, dass "in der Sitemap Fehler sind" und die da gar nicht drinnen stehen, dann verstehe ich das nicht. Natürlich können da echt mal welche in der XML sein die es nicht mehr gibt oder umgeleitet sind, der Sinn ist es doch diese zu finden und zu löschen, oder nicht?

Auch verstehe ich nicht warum bei meinem Forum nun gut 23.000 Seiten bemängelt werden die es gar nicht gibt und auch noch nie gab.

Und bei den Angaben "Verknüpft von" die sonst immer sehr hilfreich sind steht ausgerechnet bei all den "fälschlichen" Meldungen "Nicht verfügbar". Ich weiß also weder wie Google auf die URL kommt, wo die angeblich eingetragen sein soll, noch warum der nicht endlich mal einen Fehler 404 akzeptiert. Es ist ja nicht erst seit kurzem so sondern schon viele Monate und das Datum von "Problem ermittelt am" ist immer recht neu, meist 3-10 Tag alt.

Und, nein, auf die Frage hatte ich von Dir im Google-Forum keine Antwort, auf eine andere schon ;-)