Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

sitemap.xml + robots.txt = nur bestimmte URLs angeben?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
nellymel
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 16.12.2004, 12:06

Beitrag von nellymel » 05.08.2008, 10:31

Servus zusammen,

ich bekomme derzeit immer WARNUNG (rot!) im Google Webmaster-Tool angezeigt bei den eingereichten sitemaps.
Der Grund: Ich habe per robots.txt bestimmte URLs einer Website für den Bot gesperrt in der naiven Annahme, der Content der Seiten ist für den Suchbegriff, für den ich optimiert habe, völlig egal (z.B. Kontakt/Impressum oder kleine Unterseiten mit irrelevanten Themen).

In der sitemap.xml habe ich diese Seiten ebenfalls nicht angegeben.
Mit anderen Worten:
In der Sitemap sind nur die Seiten drin, die für den Suchbegriff/Thema relevant sind, alle anderen Seiten habe ich per robots.txt "gesperrt".

So, und jetzt meckert Google.

Mit Recht? Habe ich da Mist gebaut?
Oder war das genial von mir und Googlebot ist blos beleidigt?

Bitte ganz ehrlich: Ist es sinnvoll, bei kleineren Websites (20 Seiten) bestimmte Seiten zu sperren, die nix mit dem Suchbegriff-Thema zu tun haben?

Danke für rasche Antwort und Grüße aus Bayern!