Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Sitemaps

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
superolli
PostRank 8
PostRank 8
Beiträge: 718
Registriert: 22.07.2007, 14:17

Beitrag von superolli » 23.05.2008, 07:29

Hallo,

ist es schädlich, wenn ich in der robots.txt zwei Sitemaps angebe?
Ich habe Bedenken, dass einige Spider das .gz Format nicht lesen können?
Ist das wie untenstehend machbar oder sind meine Bedenken überrflüssig, sprich kann jeder Spider mittlerweile das Format lesen?


User-agent: *
Disallow:
Sitemap: https://xxx/google_sitemap.xml.gz
Sitemap: https://xxx/sitemap.xml

Grüße & Danke für Eure Beiträge.
Oliver

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

edo
PostRank 1
PostRank 1
Beiträge: 14
Registriert: 11.12.2007, 13:53

Beitrag von edo » 23.05.2008, 10:14

Hi superolli,

wenn die Einträge innerhalb der Sitemaps inhaltlich gleich sind, ist es definitiv kein DC. Die Sitemaps.xml wird. m. E. nicht in den G-Cache aufgenommen.

Du gibst bei Big-G doch eh nur eine oder mehrere bestimmte XML-Sitemaps an. Nur diese werden gezogen.

Warum möchtest Du in der robots.txt ein "disallow" setzen? Das ist m. E. nicht notwendig.

Nicht alle Spider lesen das Format "korrekt" aus, bzw. sind in der Lage das XML-File-Format korrekt umzusetzen und auszuwerten. Diejenigen, die es nicht erfassen, bringen Dir eh nur "wenige" Treffer, sind also mehr oder weniger zu vernachlässigen.

Gruß edo

Pretender
PostRank 9
PostRank 9
Beiträge: 1081
Registriert: 22.04.2004, 14:44
Wohnort: Naumburg

Beitrag von Pretender » 23.05.2008, 10:51

Denen brauchste gar keine Sitemap einzureichen, da es so oder so nichts bringt.