Mal den 'Verfolgungswahn' ausgefiltert

:
Was würde es technisch für Google bringen:
1. Jene URL's die mit XML-Sitemap versehen sind kann man anhand der Daten dieser einen Datei über sheduler Anweisungen im index aktualisieren (und zwar nur die, die sich tatsächlich geändert haben) -
Eine Datei anstatt ggf. 1.500 Anfragen ala: huhu bischt du neu
Und für jene die einfach mal behaupten: hier ist alles neu - da wird es wohl schon eine Überprüfung geben
2. Eine Linkverfolgung im Netz würde dann wohl mit einer weiteren Regel versehen:
Wenn der die URL des Links von Seite Y im Sitemap-Datenbestand existiert :
setze BL Count + 1 Regel UND kümmer dich um den Rest von Seite Y
3. Sitemaps gabs ja schon - nur nicht mit klaren Regeln und durch HTML-Dschungel halt mit Zeitfaktor +X auszuwerten - Weshalb also nicht den Zeitfaktor verkürzen durch klare Regeln ?
Es gibt halt XML - weshalb also nicht nutzen. News-Feeds werden ja auch genutzt anstatt seine News in individuelle HTML Seiten zu packen und für jede Seite einen eigenen Parser zu schreiben
Vorteil für die Seitenbetreiber dürfte wohl ein verkürzter Deepcrawl sein und keine zwingende Rankingverbesserung. Dateiaktualisierungen dürften schneller erkannt und gelistet werden. Wenn Google eine URL als XML-Sitemap-URL gekennzeichnet hat, dürfte sich mit dem Tool auch das Listen von toten Seiten erübrigen (nicht in der Sitemap : index Bereinigung)
Also ich würde sagen: Die Sache positiv sehen - so eine XML Datei läßt sich relativ schnell per PHP aufbauen und bei großen Projekten arbeitet man halt mit einer Cache-Variante die eine gewisse Zeit lebt oder über Cron neu geschrieben wird.
Mal auf das Ergebnis von Jan gespannt bin
@Jan - wie groß ist denn das Testprojekt - und sind in dem XML-File jetzt Seiten gelistet die vorher noch nicht im index waren ?