Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

sitemap.xml

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
goe24
PostRank 2
PostRank 2
Beiträge: 59
Registriert: 12.10.2005, 11:14

Beitrag von goe24 » 27.08.2009, 11:04

Hi,

ich weiß das Thema ist oft besprochen worden, jedoch habe auf meine Fragen keine direkten Antwort gefunden. Ich hoffe, Ihr könnt mir helfen.

1) Bisher nutze ich keine sitemap.xml. Bringt es Nachteile, die bei google anzumelden oder geht man die Gefahr ein, dass sich etwas verschlechtert?
2) In meiner sitemap sind Seiten drin wir

..../product_info.php/product_id/1234/page/1/sort2
..../product_info.php/product_id/1234/page/2/sort2
...

Ist dies negativ, da es sich ja quasi um die gleiche Seite handelt.
3) Wie oft sollte man die Sitemap erstellen? Wenn Sie bei google einmal angemeldet ist, muss ich dann noch was tun, damit diese regelmäßig genommen wird?
4) Wenn eine Seite nicht in der Sitemap ist, aber bei google indexiert, wird diese dann bei google rausgeschmissen?

Vielen Dank.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 27.08.2009, 12:05

1. Keine Nachteile, keine Gefahr

2. Normaler interner DC - besser gleich vermeiden, egal ob auf der Sitemap oder nicht

3. So oft wie man Seiten dazutut oder wegnimmt. Die Sitemap sollte immer aktuell sein und die Site-Struktur wiedergeben - sonst ist sie ja sinnlos. Anmelden braucht man sie nur ein Mal, Google holt sie selbsttätig regelmässig ab.

4. Nichts wird rausgeschmissen was über Hyperlinks erreichbar ist, Sitemap hin oder her.
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

goe24
PostRank 2
PostRank 2
Beiträge: 59
Registriert: 12.10.2005, 11:14

Beitrag von goe24 » 27.08.2009, 12:47

Hi,

vielen Dank. Zum Punkt 2 nochmal. Dies ist ja nicht wirklich vermeidbar oder. In der Kategorieübersicht in einem Onlineshop habe ich verschiedenste Auswahlmöglichkeiten (Hersteller usw.) so dass dies passiert.

Viele Grüße

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


007
PostRank 5
PostRank 5
Beiträge: 332
Registriert: 07.12.2008, 21:52

Beitrag von 007 » 27.08.2009, 13:25

luzie hat geschrieben:4. Nichts wird rausgeschmissen was über Hyperlinks erreichbar ist, Sitemap hin oder her.
Das stimmt so nicht, schon 2x erlebt. Beispiel 1, grosse Site mit Forum, alle nicht in der Sitemap aufgeführten Threads (Archiv) aus dem Index (ca. 400.000 Seiten). Hat 50.000 Besucher/Tag gekostet!

3DCG
PostRank 7
PostRank 7
Beiträge: 550
Registriert: 22.01.2006, 20:11
Wohnort: FFM

Beitrag von 3DCG » 27.08.2009, 20:33

würde auch bei den anderen Unterstützern der sitemaps.xml anmelden: yahoo, moreover, bing, yandex und ask.


.

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 27.08.2009, 23:08

goe24 hat geschrieben:Punkt 2 nochmal. Dies ist ja nicht wirklich vermeidbar oder. In der Kategorieübersicht in einem Onlineshop habe ich verschiedenste Auswahlmöglichkeiten
Für diesen Fall gibt's robots.txt. (Ausschliessen von DC)

(Oder "noindex", oder sonst, man müsste sehen, was am besten passt)
Zuletzt geändert von luzie am 27.08.2009, 23:14, insgesamt 1-mal geändert.
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 27.08.2009, 23:10

007 hat geschrieben:
luzie hat geschrieben:4. Nichts wird rausgeschmissen was über Hyperlinks erreichbar ist, Sitemap hin oder her.
Das stimmt so nicht, schon 2x erlebt. Beispiel 1, grosse Site mit Forum, alle nicht in der Sitemap aufgeführten Threads (Archiv) aus dem Index (ca. 400.000 Seiten). Hat 50.000 Besucher/Tag gekostet!
Glaub' ich so nicht ... möglicherweise waren die Threads nicht richtig auf der Site verlinkt ... ^^??
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

007
PostRank 5
PostRank 5
Beiträge: 332
Registriert: 07.12.2008, 21:52

Beitrag von 007 » 27.08.2009, 23:30

luzie hat geschrieben:
007 hat geschrieben:
luzie hat geschrieben:4. Nichts wird rausgeschmissen was über Hyperlinks erreichbar ist, Sitemap hin oder her.
Das stimmt so nicht, schon 2x erlebt. Beispiel 1, grosse Site mit Forum, alle nicht in der Sitemap aufgeführten Threads (Archiv) aus dem Index (ca. 400.000 Seiten). Hat 50.000 Besucher/Tag gekostet!
Glaub' ich so nicht ... möglicherweise waren die Threads nicht richtig auf der Site verlinkt ... ^^??
Kannst du ruhig glauben, waren verlinkt wie immer. Forum und Archiv sind seit 3 Jahren unangetastet. Nach dem Bereitstellen der Sitemap sind innerhalb von 4 Wochen alle archivierten Threads aus dem Index geflogen.

Google hat sich danach mächtig Zeit gelassen (2 Monate!) die Sitemap erneut einzulesen, was die Behebung des "Fehlers" mächtig verzögert hat.

Aber Jeder wie er meint...

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 28.08.2009, 20:06

007 hat geschrieben:Aber Jeder wie er meint...
Ich will's ja nicht rundweg ausschliessen ... nur weiss ich allzu genau, dass vereinzelte Beobachtung bei Google nie zu einem gültigen Schluss führt, zu viele Faktoren und 'Zufälligkeiten' spielen mit - deshalb geh' ich's immer von der anderen Seite an und frag' ich mich zuerst: "Warum sollte das so sein?" "Macht das Sinn wenn es so wäre?" "Stimmt das mit dem Rest der Logik überein?"

Und in diesem Fall denk' ich: Achtung, ich sehe nicht, dass Google die Sitemap bei durchschnittlichen Websites bisher zu irgend etwas anderem verwendet als zur Anzeige von Diagnosen in den Webmastertools, warum sollten sie dann plötzlich im negativen Sinn darauf abfahren und Seiten rauswerfen, die sie zwar erkrabbelt haben, die aber zufällig / versehentlich / undurchsichtigerweise nicht auf der Sitemap verzeichnet sind?? Dieses Verhalten machte gar keinen Sinn, es widerspräche allen anderen Beobachtungen, es widerspricht auch ihrem Grundprinzip Nie was auslassen, nie was verpassen ... insofern wär ich skeptisch ob das was du beschreibst wirklich mit der XML-Sitemap zusammenhängt ... ^^?
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

Alda
PostRank 10
PostRank 10
Beiträge: 4584
Registriert: 27.01.2009, 20:19
Wohnort: Kaiserslautern

Beitrag von Alda » 28.08.2009, 20:12

luzie hat geschrieben: ... insofern wär ich skeptisch ob das was du beschreibst wirklich mit der XML-Sitemap zusammenhängt ... ^^?
Wäre für mich auch völlig unlogisch.

007
PostRank 5
PostRank 5
Beiträge: 332
Registriert: 07.12.2008, 21:52

Beitrag von 007 » 28.08.2009, 21:05

luzie hat geschrieben:Dieses Verhalten machte gar keinen Sinn, es widerspräche allen anderen Beobachtungen, es widerspricht auch ihrem Grundprinzip Nie was auslassen, nie was verpassen ... insofern wär ich skeptisch ob das was du beschreibst wirklich mit der XML-Sitemap zusammenhängt ... ^^?
Verwechselst Du jetzt "Spidern" mit "in den Index aufnehmen"?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag