Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

google Sitemap + robots.txt

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Metaman
PostRank 7
PostRank 7
Beiträge: 602
Registriert: 17.04.2004, 07:37
Wohnort: Wittenburg (Mecklenburg)

Beitrag von Metaman » 22.09.2005, 07:51

so ich hab jetzt eine Sitemap erstellt die hochgeladen und bei google angemeldet.
nach dem anmelden hab ich noch einige änderungen an der Sitemap gemacht.
heute hab ich mir dann mal die Statisitk der Sitemap auf google angesehen und dort steht eine Fehlermeldung
und zwar das eine Seite (url wurde genannt) durch die robots.txt eingeschränkt wurde.

im Grunde ist das auch ok, denn diese Seite liegt in einem Verzeichniss das durch die robots.txt gesperrt ist.
diese URL ist auch nicht in der sitemap enthalten! es kann aber sein das die in der ersten Version meiner Sitemap enthalten war (dies aber nur für wenige Minuten).

woher kommt jetzt diese Fehlermeldung? kann es daran liegen das ich die Seite nur kurz in der sitemap stehen hatte ???

dazu hab ich jetzt gesehen das genau diese Seite, die da als Fehlermeldung auftaucht, auch in google gelistet ist, allerdings nur mit der URL alle anderen Seiten sind aber mit Titel und textausszug erfasst worden.
der entsprechende Eintrag in der robots.txt sieht so aus
Disallow: /partner/
und alle anderen Seiten aus diesem Verzeichniss wurde auch nicht erfasst