Beitrag
von luzie » 08.10.2008, 22:47
nein, unter "klein" wäre was zu verstehen, dass sich so erklären liesse:
ist die site so aufgebaut, dass der crawler in vernünftiger weise alle neuerungen oder änderungen relativ zeitnah auch durch das abkrabbeln der internen links erreichen kann? das ist "klein".
bei einem katalog von 120.000 artikeln mit einer linktiefe von 3 oder 4 klicks bis zur produktseite kann das fraglich sein: der krabbler kommt am morgen, sieht, dass auf der kategorieseite gestern abend 23 neue produkte eingestellt wurden, am nächsten morgen sind die ausverkauft, stattdessen haben sich 147 preise in einer anderen kategorie geändert ... bis der crawler sich soweit vorgearbeitet hat, ist schon alles vorbei ... DAS ist das szenario für das change-frequency, last-modified, priority usw. gedacht sind, definitiv NICHT für eine site, die auf einer seite (evtl. z.B. html-sitemap) alle seiten aufzulisten imstande ist und nur wöchentlich vielleicht irgendwas ändert, von dem es nicht SOO wichtig ist, ob es heute morgen oder heute abend im index erscheint. sie (google) werden alle diese angaben garantiert auch NUR bei sites beachten, bei denen das
1. in obigem sinne nötig ist
UND
2. die genügend trust besitzen, als dass google darauf vertrauen kann, nichts "komisches" per sitemap untergeschoben zu bekommen, eben getrost auch was in den SERPs listen kann, das NICHT unbedingt - von bekannten etablierten internen seiten oder von aussen - nachweislich verlinkt ist. sie können in diesem fall den krabbler nicht mühselig über die ganze linkstruktur zum produkt oder zur nachricht führen, sondern über die sitemap direkt dorthin "springen" lassen ...
UND
3. bei denen sich erwiesen hat, dass das alles schlüssig ist, funktioniert und sie sich allgemein darauf verlassen können was in der sitemap drinsteht.
uzie -
[url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]