Seite 1 von 1

sitemap.xml

Verfasst: 27.08.2009, 11:04
von goe24
Hi,

ich weiß das Thema ist oft besprochen worden, jedoch habe auf meine Fragen keine direkten Antwort gefunden. Ich hoffe, Ihr könnt mir helfen.

1) Bisher nutze ich keine sitemap.xml. Bringt es Nachteile, die bei google anzumelden oder geht man die Gefahr ein, dass sich etwas verschlechtert?
2) In meiner sitemap sind Seiten drin wir

..../product_info.php/product_id/1234/page/1/sort2
..../product_info.php/product_id/1234/page/2/sort2
...

Ist dies negativ, da es sich ja quasi um die gleiche Seite handelt.
3) Wie oft sollte man die Sitemap erstellen? Wenn Sie bei google einmal angemeldet ist, muss ich dann noch was tun, damit diese regelmäßig genommen wird?
4) Wenn eine Seite nicht in der Sitemap ist, aber bei google indexiert, wird diese dann bei google rausgeschmissen?

Vielen Dank.

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 27.08.2009, 12:05
von luzie
1. Keine Nachteile, keine Gefahr

2. Normaler interner DC - besser gleich vermeiden, egal ob auf der Sitemap oder nicht

3. So oft wie man Seiten dazutut oder wegnimmt. Die Sitemap sollte immer aktuell sein und die Site-Struktur wiedergeben - sonst ist sie ja sinnlos. Anmelden braucht man sie nur ein Mal, Google holt sie selbsttätig regelmässig ab.

4. Nichts wird rausgeschmissen was über Hyperlinks erreichbar ist, Sitemap hin oder her.

Verfasst: 27.08.2009, 12:47
von goe24
Hi,

vielen Dank. Zum Punkt 2 nochmal. Dies ist ja nicht wirklich vermeidbar oder. In der Kategorieübersicht in einem Onlineshop habe ich verschiedenste Auswahlmöglichkeiten (Hersteller usw.) so dass dies passiert.

Viele Grüße

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 27.08.2009, 13:25
von 007
luzie hat geschrieben:4. Nichts wird rausgeschmissen was über Hyperlinks erreichbar ist, Sitemap hin oder her.
Das stimmt so nicht, schon 2x erlebt. Beispiel 1, grosse Site mit Forum, alle nicht in der Sitemap aufgeführten Threads (Archiv) aus dem Index (ca. 400.000 Seiten). Hat 50.000 Besucher/Tag gekostet!

Verfasst: 27.08.2009, 20:33
von 3DCG
würde auch bei den anderen Unterstützern der sitemaps.xml anmelden: yahoo, moreover, bing, yandex und ask.


.

Verfasst: 27.08.2009, 23:08
von luzie
goe24 hat geschrieben:Punkt 2 nochmal. Dies ist ja nicht wirklich vermeidbar oder. In der Kategorieübersicht in einem Onlineshop habe ich verschiedenste Auswahlmöglichkeiten
Für diesen Fall gibt's robots.txt. (Ausschliessen von DC)

(Oder "noindex", oder sonst, man müsste sehen, was am besten passt)

Verfasst: 27.08.2009, 23:10
von luzie
007 hat geschrieben:
luzie hat geschrieben:4. Nichts wird rausgeschmissen was über Hyperlinks erreichbar ist, Sitemap hin oder her.
Das stimmt so nicht, schon 2x erlebt. Beispiel 1, grosse Site mit Forum, alle nicht in der Sitemap aufgeführten Threads (Archiv) aus dem Index (ca. 400.000 Seiten). Hat 50.000 Besucher/Tag gekostet!
Glaub' ich so nicht ... möglicherweise waren die Threads nicht richtig auf der Site verlinkt ... ^^??

Verfasst: 27.08.2009, 23:30
von 007
luzie hat geschrieben:
007 hat geschrieben:
luzie hat geschrieben:4. Nichts wird rausgeschmissen was über Hyperlinks erreichbar ist, Sitemap hin oder her.
Das stimmt so nicht, schon 2x erlebt. Beispiel 1, grosse Site mit Forum, alle nicht in der Sitemap aufgeführten Threads (Archiv) aus dem Index (ca. 400.000 Seiten). Hat 50.000 Besucher/Tag gekostet!
Glaub' ich so nicht ... möglicherweise waren die Threads nicht richtig auf der Site verlinkt ... ^^??
Kannst du ruhig glauben, waren verlinkt wie immer. Forum und Archiv sind seit 3 Jahren unangetastet. Nach dem Bereitstellen der Sitemap sind innerhalb von 4 Wochen alle archivierten Threads aus dem Index geflogen.

Google hat sich danach mächtig Zeit gelassen (2 Monate!) die Sitemap erneut einzulesen, was die Behebung des "Fehlers" mächtig verzögert hat.

Aber Jeder wie er meint...

Verfasst: 28.08.2009, 20:06
von luzie
007 hat geschrieben:Aber Jeder wie er meint...
Ich will's ja nicht rundweg ausschliessen ... nur weiss ich allzu genau, dass vereinzelte Beobachtung bei Google nie zu einem gültigen Schluss führt, zu viele Faktoren und 'Zufälligkeiten' spielen mit - deshalb geh' ich's immer von der anderen Seite an und frag' ich mich zuerst: "Warum sollte das so sein?" "Macht das Sinn wenn es so wäre?" "Stimmt das mit dem Rest der Logik überein?"

Und in diesem Fall denk' ich: Achtung, ich sehe nicht, dass Google die Sitemap bei durchschnittlichen Websites bisher zu irgend etwas anderem verwendet als zur Anzeige von Diagnosen in den Webmastertools, warum sollten sie dann plötzlich im negativen Sinn darauf abfahren und Seiten rauswerfen, die sie zwar erkrabbelt haben, die aber zufällig / versehentlich / undurchsichtigerweise nicht auf der Sitemap verzeichnet sind?? Dieses Verhalten machte gar keinen Sinn, es widerspräche allen anderen Beobachtungen, es widerspricht auch ihrem Grundprinzip Nie was auslassen, nie was verpassen ... insofern wär ich skeptisch ob das was du beschreibst wirklich mit der XML-Sitemap zusammenhängt ... ^^?

Verfasst: 28.08.2009, 20:12
von Alda
luzie hat geschrieben: ... insofern wär ich skeptisch ob das was du beschreibst wirklich mit der XML-Sitemap zusammenhängt ... ^^?
Wäre für mich auch völlig unlogisch.

Verfasst: 28.08.2009, 21:05
von 007
luzie hat geschrieben:Dieses Verhalten machte gar keinen Sinn, es widerspräche allen anderen Beobachtungen, es widerspricht auch ihrem Grundprinzip Nie was auslassen, nie was verpassen ... insofern wär ich skeptisch ob das was du beschreibst wirklich mit der XML-Sitemap zusammenhängt ... ^^?
Verwechselst Du jetzt "Spidern" mit "in den Index aufnehmen"?