Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Sitemaps

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
superolli
PostRank 8
PostRank 8
Beiträge: 718
Registriert: 22.07.2007, 14:17

Beitrag von superolli » 23.05.2008, 07:29

Hallo,

ist es schädlich, wenn ich in der robots.txt zwei Sitemaps angebe?
Ich habe Bedenken, dass einige Spider das .gz Format nicht lesen können?
Ist das wie untenstehend machbar oder sind meine Bedenken überrflüssig, sprich kann jeder Spider mittlerweile das Format lesen?


User-agent: *
Disallow:
Sitemap: https://xxx/google_sitemap.xml.gz
Sitemap: https://xxx/sitemap.xml

Grüße & Danke für Eure Beiträge.
Oliver

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

edo
PostRank 1
PostRank 1
Beiträge: 14
Registriert: 11.12.2007, 13:53

Beitrag von edo » 23.05.2008, 10:14

Hi superolli,

wenn die Einträge innerhalb der Sitemaps inhaltlich gleich sind, ist es definitiv kein DC. Die Sitemaps.xml wird. m. E. nicht in den G-Cache aufgenommen.

Du gibst bei Big-G doch eh nur eine oder mehrere bestimmte XML-Sitemaps an. Nur diese werden gezogen.

Warum möchtest Du in der robots.txt ein "disallow" setzen? Das ist m. E. nicht notwendig.

Nicht alle Spider lesen das Format "korrekt" aus, bzw. sind in der Lage das XML-File-Format korrekt umzusetzen und auszuwerten. Diejenigen, die es nicht erfassen, bringen Dir eh nur "wenige" Treffer, sind also mehr oder weniger zu vernachlässigen.

Gruß edo

Pretender
PostRank 9
PostRank 9
Beiträge: 1081
Registriert: 22.04.2004, 14:44
Wohnort: Naumburg

Beitrag von Pretender » 23.05.2008, 10:51

Denen brauchste gar keine Sitemap einzureichen, da es so oder so nichts bringt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Anonymous

Beitrag von Anonymous » 23.05.2008, 13:45

Hi Superolli,
die Sitemaps im gz Format sind standartisiert und werden von jedem Bot gelesen. Sitemaps werden nihct mit in den Index genommen = Kein DC

superolli
PostRank 8
PostRank 8
Beiträge: 718
Registriert: 22.07.2007, 14:17

Beitrag von superolli » 23.05.2008, 19:39

.. DAnke!

gelegenheitsbot
PostRank 7
PostRank 7
Beiträge: 601
Registriert: 16.11.2007, 00:30

Beitrag von gelegenheitsbot » 23.05.2008, 23:56

superolli hat geschrieben:Hallo,

ist es schädlich, wenn ich in der robots.txt zwei Sitemaps angebe?
Ich habe Bedenken, dass einige Spider das .gz Format nicht lesen können?
Ist das wie untenstehend machbar oder sind meine Bedenken überrflüssig, sprich kann jeder Spider mittlerweile das Format lesen?


User-agent: *
Disallow:
Sitemap: https://xxx/google_sitemap.xml.gz
Sitemap: https://xxx/sitemap.xml

Grüße & Danke für Eure Beiträge.
Oliver
da kannste problemlos alle links reinschieben!
google arbeitet die ab bis zur dummheit.
auch mit 10.000 verlinkungen.

WAS indiziert wird, ist aber ein anderer fakt!
Meinen Kritikern empfehle ich:
https://de.youtube.com/watch?v=ZfCLfbQJATI

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag