Seite 1 von 1
Sitemaps für kleine Seiten nicht gut????
Verfasst: 07.10.2008, 09:14
von shoppi
Hallo
Kürzlich habe ich im Google Wm Forum eine Frage gestellt ( wegen Problem mit den WM tools ) und habe dort die Empfehlung erhalten meine Sitemap zu löschen, weil eine Sitemap für kleine Seiten nicht gut wäre ....
Nun kann ja in Internet Foren jeder quasi anonym irgendwelches Zeugs schreiben - und ich finde diese Antwort auch total unlogisch - aber ich würde es gerne genau wissen.
Kann eine Sitemap denn tatsächlich aus irgendwelchen Gründen ungünstig sein ? Oder war diese Antwort totaler Schwachsinn????
Verwirrte Grüße
Pat
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 07.10.2008, 09:17
von luzie
das zeig mir her wer diesen mist geschrieben hat

(hätt' ich dort eigentlich sehen müssen?)
natürlich ist eine sitemap NICHT ungünstig
Verfasst: 07.10.2008, 09:24
von shoppi
luzie hat geschrieben:das zeig mir her wer diesen mist geschrieben hat

(hätt' ich dort eigentlich sehen müssen?)
natürlich ist eine sitemap NICHT ungünstig
Danke,
war im englischen forum ( habe das deutsche erst später entdeckt).
Ich schicke Dir das mal per PM ...
Tschüß
Pat
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 08.10.2008, 08:46
von luzie
auf dass dieser thread auch einen sinn ergebe, hier das ergebnis unserer bemühungen:
tatsächlich rät phil payne im englischen google-webmasterforum diese eine bestimmte sitemap lieber weg zu nehmen, die begründung allerdings ist sinnig. er sagt:
"sitemaps generally don't do much for small sites"
(dass dem so ist, ist klar)
und bemängelt dann an der fraglichen sitemap die fehlende übereinstimmung zwischen 'change-frequency' (z.B. "daily") und 'last-modified' (z.B. "2008-07-01" am 05. 10. 2008). er findet es nun für kleinere sites besser, gar keine sitemap einzusetzen, als eine in diesem sinne "falsche". er meint, dass die sitemap, wenn sie aus technischen gründen schon nicht wirklich gebraucht wird, doch ein mittel sein kann, TRUST gegenüber der suchmaschine aufzubauen, aber eben nur wenn sie keine "fehler" (unstimmigkeiten) der genannten sorte enthält.
das ist gar nicht schlecht argumentiert. daraus hab' ich wiederum gegenüber shoppi oben den ratschlag gebastelt, nicht die sitemap wegzuwerfen, sondern alternativ zur komplizierten XML-sitemap eine einfache text-sitemap einzusetzen, in der solche "fallen" gar nicht erst auftreten können.
Verfasst: 08.10.2008, 18:54
von Lena83
Das stellt sich natürlich dann die Frage, was man unter einer kleinen Seite versteht.
Sollte man auf die sitemap.xml verzichten wenn man weniger als 20 Unterseiten hat oder erst bei weniger als 10?
Verfasst: 08.10.2008, 22:47
von luzie
nein, unter "klein" wäre was zu verstehen, dass sich so erklären liesse:
ist die site so aufgebaut, dass der crawler in vernünftiger weise alle neuerungen oder änderungen relativ zeitnah auch durch das abkrabbeln der internen links erreichen kann? das ist "klein".
bei einem katalog von 120.000 artikeln mit einer linktiefe von 3 oder 4 klicks bis zur produktseite kann das fraglich sein: der krabbler kommt am morgen, sieht, dass auf der kategorieseite gestern abend 23 neue produkte eingestellt wurden, am nächsten morgen sind die ausverkauft, stattdessen haben sich 147 preise in einer anderen kategorie geändert ... bis der crawler sich soweit vorgearbeitet hat, ist schon alles vorbei ... DAS ist das szenario für das change-frequency, last-modified, priority usw. gedacht sind, definitiv NICHT für eine site, die auf einer seite (evtl. z.B. html-sitemap) alle seiten aufzulisten imstande ist und nur wöchentlich vielleicht irgendwas ändert, von dem es nicht SOO wichtig ist, ob es heute morgen oder heute abend im index erscheint. sie (google) werden alle diese angaben garantiert auch NUR bei sites beachten, bei denen das
1. in obigem sinne nötig ist
UND
2. die genügend trust besitzen, als dass google darauf vertrauen kann, nichts "komisches" per sitemap untergeschoben zu bekommen, eben getrost auch was in den SERPs listen kann, das NICHT unbedingt - von bekannten etablierten internen seiten oder von aussen - nachweislich verlinkt ist. sie können in diesem fall den krabbler nicht mühselig über die ganze linkstruktur zum produkt oder zur nachricht führen, sondern über die sitemap direkt dorthin "springen" lassen ...
UND
3. bei denen sich erwiesen hat, dass das alles schlüssig ist, funktioniert und sie sich allgemein darauf verlassen können was in der sitemap drinsteht.
Verfasst: 08.10.2008, 23:08
von luzie
ausserdem sollst du ja nicht darauf "verzichten" sondern du sollst die sitemap entweder "korrekt" einsetzen oder gar nicht, das ist der sinn dessen was gesagt wurde. in diesem sinne wäre auch nichts zu sagen, wenn du eine xml-sitemap hast und darin die ganzen zusatzangaben auch weglässt weil sie dort für deine site keine wirkliche funktion haben. was sollst du da z.B. eine change-frequency von einem monat angeben, wenn der krabbler eh jeden tag vorbeikommt?
Verfasst: 09.10.2008, 19:55
von Lena83
Ach so.
Wenn ich also eine ganz einfache Homepage mit den Seiten Startseite, Angebot, über uns, Anfahrt, Kontakt und Impressum habe, deren Inhalt nur ganz selten geändert wird, welche Angaben sollte ich denn dann in der XML-sitemap weglassen?
<url>
<loc>
https://www.xyz.de/</loc>
<lastmod>2008-09-21</lastmod>
<changefreq>daily</changefreq>
<priority>0.5</priority>
</url>
Verfasst: 09.10.2008, 20:02
von Gamling
Ich lass einfach alle optionalen weg.
Verfasst: 09.10.2008, 20:15
von luzie
Lena83 hat geschrieben:Wenn ich also eine ganz einfache Homepage mit den Seiten Startseite, Angebot, über uns, Anfahrt, Kontakt und Impressum habe, deren Inhalt nur ganz selten geändert wird, welche Angaben sollte ich denn dann in der XML-sitemap weglassen?
in diesem fall kannst du die sitemap wirklich getrost weglassen, sie bewirkt genau GAR nichts.
wenn du das aber nicht willst, nimmst du eine sitemap im text-format, die noch den schönen vorteil hat, dass du sie in 5 minuten mit der hand im text-editor erstellen kannst (als sitemap.txt abspeichern):
https://www.deinesite:tld/index.html
https://www.deinesite:tld/angebot.html
https://www.deinesite:tld/anfahrt.html
... etc.
oder du machst das was gamling schreibt.
Verfasst: 09.10.2008, 20:17
von Gamling
Also wer nicht auch eine .xml Sitemap in 5min schreiben kann, den will ich garnicht erst beim php coden zusehen... o0
Verfasst: 09.10.2008, 20:19
von luzie
ja gut können kann ich das auch aber wollen kann ich nich'
( ausserdem is' PERL sowieso geiler als php

)
Verfasst: 09.10.2008, 20:27
von Hobby_SEO79
Gamling hat geschrieben:Ich lass einfach alle optionalen weg.
Mach ich auch so!
Frage ist, ob google das optionale überhaupt auswertet? Macht er ja mit dem Meta-Tag in den Dokumenten auch nicht mehr.
Einfach den loc-Inhalt - mehr brauch man nicht.
Google merkt wie schnell sich Inhalte ändern .. zwar immer zeitverzögert, aber so doof sind die crawler nicht.
Verfasst: 09.10.2008, 20:30
von Lena83
luzie hat geschrieben:Lena83 hat geschrieben:Wenn ich also eine ganz einfache Homepage mit den Seiten Startseite, Angebot, über uns, Anfahrt, Kontakt und Impressum habe, deren Inhalt nur ganz selten geändert wird, welche Angaben sollte ich denn dann in der XML-sitemap weglassen?
in diesem fall kannst du die sitemap wirklich getrost weglassen, sie bewirkt genau GAR nichts.
wenn du das aber nicht willst, nimmst du eine sitemap im text-format, die noch den schönen vorteil hat, dass du sie in 5 minuten mit der hand im text-editor erstellen kannst (als sitemap.txt abspeichern):
https://www.deinesite:tld/index.html
https://www.deinesite:tld/angebot.html
https://www.deinesite:tld/anfahrt.html
... etc.
oder du machst das was gamling schreibt.
alles klar. Dann lasse ich die XML einfach weg
Verfasst: 09.10.2008, 20:51
von luzie
Hobby_SEO79 hat geschrieben:Frage ist, ob google das optionale überhaupt auswertet?
wie oben in dem ewig langen post angedacht: glaub' schon. bei amazon, ebay, quelle, bbc, spiegel, etc. ...
das ganze läuft nicht umsonst unter dem label "cooperative crawling" und dient letztlich dazu, dass die grossen untereinander ein möglichst effizientes crawling aushandeln, das die ressourcen schont und kataloge oder news schnell in den index schafft, ohne dass sich deren systeme allzu sehr gegenseitig belasten.
allerdings glaube ich, dass längerfristig auch "kleinere" sites davon vorteile haben werden (z.B. schnellere indizierung neuer inhalte durch gezielteres krabbeln), wenn sie genügend 'trust' haben.