Hi!
Das sind spannende Ideen. Ich frage mich aber, wie ich die Links erkennen soll. Das würde ja nur mit einer manuellen Whitelist gehen. Liste der Artikelverzeichniss, Liste der ... Hmm...
Blog-Kommentare könnte man noch versuchen, heraus zu bekommen, ebenso Links von Feedburner o.ä., allerdings schätze ich, dass die Fehlerquote recht hoch sein könnte... Gleiches gilt wohl für Footerlinks... Mals sehen, ob mir was schlaues dazu einfällt - ich gebe Dir recht, dass das geil wäre
Zentrale DB sehe ich erstmal nicht, auch wenn die Idee gut ist. Watch ist ja für den lokalen Betrieb gedacht und eben nicht für den zentralen Betrieb. Dann müßten die Daten doch wieder auch in einer zentralen DB landen, was ich eigentlich nicht möchte....
Durch die neuen Konzepte wird man aber seine eigene große Datenbasis haben, da für jede mal erfasste Domain die historischen Daten gesammelt werden (z.B. wenn eine Domain als Konkurenz in den SERPs auftaucht...) Genau an der Stelle arbeite ich gerade um eine möglichst gute automatischen vollständige Datensammlung zu einer Domain/einer URL hinzubekommen. Es wird wohl auch möglich sein, bestimmte URLs/Domains explizit anzugeben, aber viele Daten sammelt das Tool "durch Zufall", weil die andere URL / Domain auch abgefragt wurde.
Die Ansichten auf die Daten sind dann wirklich nur "Views" die die Datenbestände sinnvoll aufbereiten...