Ich bin gerade dabei "Watch" mächtig zu erweitern. Ich habe glücklicher weise Unterstützung von jemanden bekommen, der wirklich Ahnung von Programmieren hat. Die neue Version von Watch wird unter der Haube nix mehr mit meiner alten Version zu tun haben... (und offiziell unter der GPL veröffentlicht...)
In diesem Zuge würde mich interessieren, was man alles an Daten über eine Domain und eine URL sammeln sollte, um entsprechende Rückschlüsse ziehen zu können.
Bisher habe ich:
a) Für eine Domain:
=============
- Alter
- Anzahl indizierte Seiten
- Anzahl indizierte Links
- Alexa Rank
b) Für eine spezielle URL:
================
- PageRank
- Anzahl Backlinks
- Inhalte von H1-H6
- DMOZ-Eintrag vorhanden?
- Yahoo-Directory Eintrag vorhanden?
- Inhalt von META-Keywords/Description
- Seitentitel
- Text auf der Seite mit <b> und <strong>
Auch könntest du die IPs der Links auslesen und analysieren.
So könnte man sofort und ohne Arbeit recht sicher erkennen, ob eine Seite wirklich gut verlinkt ist, oder von nem SEO betrieben wird und nur aus dem eigenene Netzwerk und AVs gefüttert wird.
Ich frag heute die Daten für www.domain.de ab und in 6 Monaten fragt wer anders ebenfalls die daten für www.domain.de ab und bekommt zu den aktuellen Werten noch eine Übersicht, wie sich die Domain in 6 Monaten verändert hat.
Das sind spannende Ideen. Ich frage mich aber, wie ich die Links erkennen soll. Das würde ja nur mit einer manuellen Whitelist gehen. Liste der Artikelverzeichniss, Liste der ... Hmm...
Blog-Kommentare könnte man noch versuchen, heraus zu bekommen, ebenso Links von Feedburner o.ä., allerdings schätze ich, dass die Fehlerquote recht hoch sein könnte... Gleiches gilt wohl für Footerlinks... Mals sehen, ob mir was schlaues dazu einfällt - ich gebe Dir recht, dass das geil wäre
Zentrale DB sehe ich erstmal nicht, auch wenn die Idee gut ist. Watch ist ja für den lokalen Betrieb gedacht und eben nicht für den zentralen Betrieb. Dann müßten die Daten doch wieder auch in einer zentralen DB landen, was ich eigentlich nicht möchte....
Durch die neuen Konzepte wird man aber seine eigene große Datenbasis haben, da für jede mal erfasste Domain die historischen Daten gesammelt werden (z.B. wenn eine Domain als Konkurenz in den SERPs auftaucht...) Genau an der Stelle arbeite ich gerade um eine möglichst gute automatischen vollständige Datensammlung zu einer Domain/einer URL hinzubekommen. Es wird wohl auch möglich sein, bestimmte URLs/Domains explizit anzugeben, aber viele Daten sammelt das Tool "durch Zufall", weil die andere URL / Domain auch abgefragt wurde.
Die Ansichten auf die Daten sind dann wirklich nur "Views" die die Datenbestände sinnvoll aufbereiten...
Wahrscheinlich kannst du die Links nur anhand einer URL-Liste der Herkunft zuordnen. Eine automatische Erkennung von Webseiten ist wahrscheinlich zu komplex zum programmieren.
Entschuldigt, wenn ich etwas vom Thema abweiche aber was ole1210 da schreibt wäre wirklich sehr cool. Gibt es denn noch kein Webtool, welches die "Ranking-History" einer URL anzeigen kann? Daraus könnte man doch interessante Rückschlüsse ziehen.
Natürlich gibt es solche Tools... Watch ist in der Beziehung nur eines von vielen... Das ist ja eine Funktion, die es schon kann. Was Ole gerne möchte, ist eine differenzierte Aufteilung der Backlinks nach Quellen...
@Ole:
Wer kann denn so eine White-List erstellen und pflegen? Du? Die müsste ja Kategorien haben, a la "Artikelverzeichnis, Webkatalog, Social-Bookmark-Dienst, etc...".
Das Problem mit "Ist aus Footer" oder "ist ein Blog-Kommentar" wäre damit aber noch nicht gelöst...
Was man sicherlich hin bekommt ist eine Einteilung nach "Ist nofollow" oder "ist follow"...
Wie wäre es mit einer schönen Auswertung der Ankertexte ?
Wir wollen ja auch sehen, was die Mitbewerber so veranstalten ?
Etwa so was schönes wie linkdiagnosis.
Aha, dann werde ich mir Watch gleich mal ansehen. Was die Footer-Links betrifft so könnte man vielleicht den Quellcode nach dem letzten Vorkommen von http:// parsen und dies ins Verhältnis zur <Tag>-Struktur setzen. Meist ist ja im Footer noch ein Link zum Impressum (bei deutschen Seiten zumindest). Wenn in der Nähe noch ein http:// ist, wird dies vermutlich ein Footerlink sein. Ist etwas schwammig, ich weiß aber vielleicht ist das ein Ansatz.
Der Backlinkcheck von tools.marketleap.com hat übrigens eine Backlinkhistory mit drin, vielleicht kannst du da ja mal vorbeigucken und dir ein bißchen was abgucken ....
Im Idealfall wird diese Liste nicht von einer person, sondern von vielen gepflegt. So ist die Wahrscheinlichkeit am größten, irgendwann mal halbwegs alle ULRs drin zu haben.
Könntest du keine Funktion in Watch einbauen, wo man AVs etc einfach meldet und diese werden dann automatisch in eine DB eingepflegt und beim nächsten Update an die User verteilt?
Wie geht dein Tool danmit um, wenn mehrere Links von einer URL kommen? Sistrix hat dazu ja nen ganz interessanten test gemacht.