Ich bin seit längerem am Tüfteln und Erarbeiten eines Algorithmus, -der die Themenrelevanz von Backlinks berücksichtigt. Ich vermute sehr stark, das Google diesen Algo schon seit längerem (wenn vielleicht auch ausgefeilter) benutzt. Ich habe hier mehr dazu geschrieben. Kurz zusammengefasst funktioniert der Algorithmus in etwa so:
- Ermittlung aller Backlinks der betreffenden Seite.
- Einteilung der Seite in ein bestimmtes, nicht zu feingranulares Themenumfeld. Z.B. „Reisen“, „Finanzen“, etc.
- Analyse aller Backlinks, die dem selben Themenumfeld entspringen.
- Bilden des Mittelwertes aus allen C-Ranks themengleicher Backlinks.
Was ich mir davon erhoffe:
1) Genaue Auskunft über den C-Rank (CR) um Seiten ähnlich wie Google besser bewerten zu können.
2) Ich möchte Content-Authorities ermitteln um optimale Linkpartner zu finden.
3) Ich möchte versuchen, so zu denken, wie Google denkt, um mich zukunftsweisendere Faktoren, als z.B. den PR, verlassen zu können.
Dieses CR-Projekt ist größtenteils in Python geschrieben und bereitet mir momentan sehr viel Freude! (Auch, weil Python einfach Spaß macht ).
Doch bevor ich weiter "draufloshacke", habe ich ein paar Fragen:
- Was haltet Ihr von dieser Idee/diesem Projekt?
- Hat jemand Lust, daran mitzuwirken, mit zu programmieren?
- Hat irgendwer gute Ideen, wie ich mit meinen begrenzten Ressourcen schnellere Crawling-Geschwindigkeiten hinbekommen kann, bzw. die Content-Analyse verbessern kann?
- Hat irgend jemand hier die Möglichkeit sehr große Mengen Backlinks, schnell und unbegrenzt abzufragen, oder gar in einer DB vorhanden?
Ich danke Euch ganz herzlich für Eure Kritik und Anregung!
Greetz,
Ohara