Google sitemap.xml versus robots.txt
Verfasst: 06.06.2008, 13:45
Hallo,
da meine Seite mittlerweile sehr groß ist (rund 4.400 Seiten), habe ich beschlossen, die Google sitemap.xml per script jeden Tag neu erstellen zu lassen.
Nun meine Frage: Womit beeinflußt man den Google-Bot in seinem Crawling mehr? Mit der Sitemap.xml oder mit der Robots.txt? Ordner, bzw. Dateien für den Google-Bot sperren kann man ja mit der robots.txt.
da meine Seite mittlerweile sehr groß ist (rund 4.400 Seiten), habe ich beschlossen, die Google sitemap.xml per script jeden Tag neu erstellen zu lassen.
Nun meine Frage: Womit beeinflußt man den Google-Bot in seinem Crawling mehr? Mit der Sitemap.xml oder mit der Robots.txt? Ordner, bzw. Dateien für den Google-Bot sperren kann man ja mit der robots.txt.