sitemap.xml + robots.txt = nur bestimmte URLs angeben?
Verfasst: 05.08.2008, 10:31
Servus zusammen,
ich bekomme derzeit immer WARNUNG (rot!) im Google Webmaster-Tool angezeigt bei den eingereichten sitemaps.
Der Grund: Ich habe per robots.txt bestimmte URLs einer Website für den Bot gesperrt in der naiven Annahme, der Content der Seiten ist für den Suchbegriff, für den ich optimiert habe, völlig egal (z.B. Kontakt/Impressum oder kleine Unterseiten mit irrelevanten Themen).
In der sitemap.xml habe ich diese Seiten ebenfalls nicht angegeben.
Mit anderen Worten:
In der Sitemap sind nur die Seiten drin, die für den Suchbegriff/Thema relevant sind, alle anderen Seiten habe ich per robots.txt "gesperrt".
So, und jetzt meckert Google.
Mit Recht? Habe ich da Mist gebaut?
Oder war das genial von mir und Googlebot ist blos beleidigt?
Bitte ganz ehrlich: Ist es sinnvoll, bei kleineren Websites (20 Seiten) bestimmte Seiten zu sperren, die nix mit dem Suchbegriff-Thema zu tun haben?
Danke für rasche Antwort und Grüße aus Bayern!
ich bekomme derzeit immer WARNUNG (rot!) im Google Webmaster-Tool angezeigt bei den eingereichten sitemaps.
Der Grund: Ich habe per robots.txt bestimmte URLs einer Website für den Bot gesperrt in der naiven Annahme, der Content der Seiten ist für den Suchbegriff, für den ich optimiert habe, völlig egal (z.B. Kontakt/Impressum oder kleine Unterseiten mit irrelevanten Themen).
In der sitemap.xml habe ich diese Seiten ebenfalls nicht angegeben.
Mit anderen Worten:
In der Sitemap sind nur die Seiten drin, die für den Suchbegriff/Thema relevant sind, alle anderen Seiten habe ich per robots.txt "gesperrt".
So, und jetzt meckert Google.
Mit Recht? Habe ich da Mist gebaut?
Oder war das genial von mir und Googlebot ist blos beleidigt?
Bitte ganz ehrlich: Ist es sinnvoll, bei kleineren Websites (20 Seiten) bestimmte Seiten zu sperren, die nix mit dem Suchbegriff-Thema zu tun haben?
Danke für rasche Antwort und Grüße aus Bayern!