Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

sitemap.xml + robots.txt = nur bestimmte URLs angeben?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
nellymel
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 16.12.2004, 12:06

Beitrag von nellymel » 05.08.2008, 10:31

Servus zusammen,

ich bekomme derzeit immer WARNUNG (rot!) im Google Webmaster-Tool angezeigt bei den eingereichten sitemaps.
Der Grund: Ich habe per robots.txt bestimmte URLs einer Website für den Bot gesperrt in der naiven Annahme, der Content der Seiten ist für den Suchbegriff, für den ich optimiert habe, völlig egal (z.B. Kontakt/Impressum oder kleine Unterseiten mit irrelevanten Themen).

In der sitemap.xml habe ich diese Seiten ebenfalls nicht angegeben.
Mit anderen Worten:
In der Sitemap sind nur die Seiten drin, die für den Suchbegriff/Thema relevant sind, alle anderen Seiten habe ich per robots.txt "gesperrt".

So, und jetzt meckert Google.

Mit Recht? Habe ich da Mist gebaut?
Oder war das genial von mir und Googlebot ist blos beleidigt?

Bitte ganz ehrlich: Ist es sinnvoll, bei kleineren Websites (20 Seiten) bestimmte Seiten zu sperren, die nix mit dem Suchbegriff-Thema zu tun haben?

Danke für rasche Antwort und Grüße aus Bayern!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

pr_sniper
PostRank 9
PostRank 9
Beiträge: 1766
Registriert: 07.02.2006, 19:21

Beitrag von pr_sniper » 05.08.2008, 11:19

:D Bitte auch ganz ehrlich: Ist es sinnvoll, überhaupt solche Seiten zu erstellen?

Ansonsten: auch der Umfang einer Site ist ein Ranking-Kriterium ... Möchtest du trotzdem die Seiten nicht indiziert haben, ignoriere die Google-Meldung - du bist der Boss.

tojas
PostRank 7
PostRank 7
Beiträge: 624
Registriert: 11.09.2003, 17:14
Wohnort: Berlin

Beitrag von tojas » 05.08.2008, 14:54

Bitte ganz ehrlich: Ist es sinnvoll, bei kleineren Websites (20 Seiten) bestimmte Seiten zu sperren, die nix mit dem Suchbegriff-Thema zu tun haben?
Tja, das kommt immer auf die Seite an. Solche Sachen wie Impressum, Kontakt, AGB und den ganzen Kram sperren wir eigentlich grundsätzlich. Schädlich ist das auf keinen Fall.