Bei G**gle-Sitemaps kann die Crawlgeschwindigkeit der Spider variiert werden. Hat jemand das schon probiert - und konnte irgendeine Veränderung der Frequenz feststellen?
Ich nicht. Oder verstehe ich da was ganz falsch?
Gruss
codemonk
Datenbank-Content und Branchen-Adressen für Publisher und SEO >>> contentdeals.de
durch die schnellere Crawlgeschwindigkeit wird deine website auf einmal im ganzen zuge durchgecrawlt. dadurch wird der server höher belastet. muss man sich so vorstellen als wenn ganz viele besucher auf einmal deine seite besuchen. bei der langsameren crawlgeschwindigkeit dauert es länger bis deine seite komplett verfolgt wird. auslastung ist auf einen grösseren zeitraum gleichmässig verteilt. - so habe ich das verstanden. meine frage wäre auch hier, ob die langsemere geschwindigkeit ein besseres crawling ist? oder ob das eigentlich egal ist ?
Google begrenzt die Geschwindigkeit des Googlebots von sich aus auf eine gewisse Frequenz. Die hängt unter anderem damit zusammen, wie schnell der Websererver antwortet - also wie ausgelastet er ist (hostload). Es kann deswegen bei sehr umfangreichen Seiten aber passieren, dass der Bot nicht die komplette Seite crawlen kann. Dann kann man in Sitemaps die Crawlfrequenz erhöhen - sofern die Hardware der eigenen Seite das mitmacht. Auswirkungen auf das Ranking hat das alles gar nichts.
Zuletzt geändert von SISTRIX am 07.11.2006, 09:05, insgesamt 1-mal geändert.
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!
Ich denke, dass der Bot nicht eine Seite nach der anderen mit maximaler Speed aufruft. Er lässt dazwischen einfach ein paar Sekunden Zeit vergehen. Bei der Qualität wird da sicher kein Unterschied gemacht. Es geht nur um die Serverbelastung.