Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Kenntnisstand in Sachen "Sitemap"

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Daniela
PostRank 4
PostRank 4
Beiträge: 113
Registriert: 13.09.2004, 20:09
Wohnort: Hamburg

Beitrag von Daniela » 21.10.2005, 17:23

Hallo,

wie ist denn der aktuelle Kenntnisstand in Sachen "Sitemap"?

Wie viele Links verfolgt Google maximal pro Spiderung?
Sollten große Sitemaps besser auf mehrere kleinere Sitemaps verteilt werden die untereinander verlinkt sind?
Was bastelt ihr eure Sitemaps?

Grüße,
Daniela

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 21.10.2005, 17:32

Sitemap:
eine für meine Kunden
da können die wählen was Sie sehen wollen

meine Kunden gehen oft Sitemap==>Artikel

diese Sitemap lasse ich Google nur einmal pro Woche spidern und googlebot hält sich dran

denn:



eine
per xml direkt an Google

neuer Content veröffentlicht und im selben Moment ist Google informiert und nach weniger als 15 Minuten finde ich dies bei Google

lG

delikat
PostRank 3
PostRank 3
Beiträge: 87
Registriert: 17.08.2005, 11:43

Beitrag von delikat » 21.10.2005, 17:53

Das würde mich auch mal interessieren, habe vorgestern eine Sitemap erstellt und da die schon indexierten Seiten + eine neue draufgepackt. Die Sitemap war dann nen Tag später auch schon im Index, die eigentliche neue Seite jedoch nicht. Ich verstehe da die Logik nicht, wieso bricht der Bot da einfach ab und fügt die Seite nicht auch noch dem Index hinzu?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

DJTonic
PostRank 5
PostRank 5
Beiträge: 214
Registriert: 18.03.2005, 05:27

Beitrag von DJTonic » 21.10.2005, 18:12

also bei mir hat die xml-sitemap nichts gebracht. google holte sich brav alle sitemaps, passiert ist aber nix.

mark007q
PostRank 5
PostRank 5
Beiträge: 225
Registriert: 11.09.2005, 15:43
Wohnort: Bochum

Beitrag von mark007q » 21.10.2005, 18:41

Ich habe auch zum Test 8 Wochen täglich eine neue Sitemap eingereicht ... das war nicht der "Bringer".

Dann habe ich den ganzen Service gelöscht und siehe da, einen Tag später gab es nie geahnte Googlebot Aktivitäten ...

Ist schon manchmal seltsam ...

delikat
PostRank 3
PostRank 3
Beiträge: 87
Registriert: 17.08.2005, 11:43

Beitrag von delikat » 21.10.2005, 18:50

Soll das heissen dass Google Sitemaps ignoriert und die Links darauf nicht indexiert bzw. denen nicht nachgeht? Kann ich mir eigentlich nicht vorstellen.

mark007q
PostRank 5
PostRank 5
Beiträge: 225
Registriert: 11.09.2005, 15:43
Wohnort: Bochum

Beitrag von mark007q » 21.10.2005, 18:54

Bei mir wurde die Sitemap jeden Tag heruntergeladen ... das wars dann aber auch. Naja und nach 8 Wochen habe ich doch leicht die Geduld verloren ...

Mir ist nicht klar, wem genau die Sitemap Lösung Vorteile bringt ... offensichtlich ja Seiten wie meinen nicht ... da ist altbewährtes besser.

Aber vielleicht haben ja andere auch verschiedene Erfahrungen gemacht?!

bubbles
PostRank 4
PostRank 4
Beiträge: 159
Registriert: 06.10.2005, 17:54

Beitrag von bubbles » 21.10.2005, 19:05

also google hat bei mir alle (unter-)seiten der sitemap indexiert (die seite gibt es seit ende april 05)

wie google jedoch auf 9700+ ergebnisse bei der site: abfrage kommt ist mir unklar (hab nur ca. 1200+ (unter-)seiten)

MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 21.10.2005, 19:09

delikat
dies ist so nicht sagbar,

ich denke , dass es Unterschied macht:

ich liefere Google meine xml Datei -also ich nutze zwar das Service von Google aber mit meiner Datei nicht mit der von Google,

diese gibt Google an, welche Bereiche wie oft geholt werden dürfen und googlebot hält sich dran und liefert gute Ergebnisse

und es spart mir traffic und den nicht zu knapp.


Erfahrungen mit der hauseigenen xml Datei von Google habe ich keine.

auf den Gedanken kam ich gar nie, diese zu nehmen ... :o (dies ist alte Progger Krankheit :trau nur dem was du selber verbrochen hast 8) )

lG

Zerstreuter
PostRank 6
PostRank 6
Beiträge: 400
Registriert: 04.07.2005, 12:12
Wohnort: Schwalmstadt

Beitrag von Zerstreuter » 21.10.2005, 20:13

mark007q hat geschrieben:Ich habe auch zum Test 8 Wochen täglich eine neue Sitemap eingereicht ... das war nicht der "Bringer".
Ich betreibe einen relativ unbedeutenden Online-Shop und mir hat die xml-Sitemap viel gebracht; ziemlich genau zwei Wochen nachdem ich meine Ungedult unter Kontrolle hatte (d.h. eben nicht jeden Tag die Sitemap neu eingereicht oder am Format rumgedoktort habe) machte es von einem auf den anderen Tag plötzlich plopp und alle 300 Seiten waren sauber indexiert. Seitdem dauert es nur wenige Stunden nach Aktualisierung der Sitemap, bis neue Seiten von mir im Index erscheinen. Yahoo kennt gerade mal 19 und MSN sogar nur 4 Seiten von mir.

zottel
PostRank 5
PostRank 5
Beiträge: 274
Registriert: 10.11.2005, 13:02
Wohnort: Berlin

Beitrag von zottel » 11.11.2005, 00:28

das mit der xml sitmap ist denkmal ein gute sache. ich hab das auch gemacht bei 4 domaenen und konnte beoachten das google sie sich zwar holt aber immer erst nach dem der google bot da.

ich habe auch verschiedende versionen getestet wie XML ECho oder SOPLUS und den google eigenden Maker und das was es gebracht hat ist das er zwar alle seiten index aber er wenn du einen kleine umbau auf deiner seite machst und url loescht und dann eine neue sitmap erstellst er die alten noch drin hat und die neuen dazu schreibt ist ja an sich nicht so schlimm, bis google das dannn reguliert ist aber surfer unfreundlich weil viele url im netz sind die nicht angezeigt werden.

mein fazit

eine gute sache wenn man nur einmal die woche oder monat eine sitmap einreicht, ambesten nach jedem downloaden die sache loeschen und neu´einrichten , nicht geeignet fuer site die viel news haben und sowas, weil die fehlerquete sehr schnell ziemlich hart werden kann

danke zottel

Elmar2
PostRank 8
PostRank 8
Beiträge: 812
Registriert: 05.04.2004, 23:49
Wohnort: in deinem Computer

Beitrag von Elmar2 » 12.11.2005, 23:54

Wie immer kommt es drauf an.

EIne Seite, die ein paar hundert Seiten hat, mit wenig Veränderungen wird keine Sitemap brauchen, wenn alle 2 Monate eine neue Seite hinzukommt.

große Seiten mit reichlich dynamischem Content schon (Blogs, Foren, Wiki, weiß der Geier).

Auf einer Seite von mir mit ca. 600.000 Forenbeiträgen sind jetzt 200.000 im Index. Vor der Sitemap waren es 5.000. Das macht sich Besucher- und Adsensemäßig dann schon ziemlich positiv bemerkbar

Elmar

konsumi
PostRank 3
PostRank 3
Beiträge: 93
Registriert: 02.11.2005, 10:33

Beitrag von konsumi » 13.11.2005, 10:31

wo kann ich informationen über solche Sitemaps, die ihr Beschreibt bekommen oder wie macht ihr das genau?

Racker
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 07.09.2004, 07:33

Beitrag von Racker » 13.11.2005, 11:11


konsumi
PostRank 3
PostRank 3
Beiträge: 93
Registriert: 02.11.2005, 10:33

Beitrag von konsumi » 13.11.2005, 11:13

vielen Dank

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag