Seite 1 von 3

Backlink-Monitor (Checker) in Entwicklung (PHP/AJAX)

Verfasst: 20.06.2009, 22:54
von mgutt
Hi,

nachdem ich eine Menge Tools auf dem Markt gesehen habe, die mir nicht so gefallen haben und mir der letzte Checker alle meine Daten korrumpierte, habe ich mich an die Entwicklung eines eigenen Tools gemacht.

geplante Features:
- Hinzufügen unendlich vieler Backlinks (steht)
- Prüfung auf Google Pagerank (steht)
- Prüfung auf Alexa Rank (steht)
- Prüfung auf Alexa Backlinks (steht)
- Prüfung auf Yahoo Backlinks (steht)
- Prüfung auf Bing Backlinks
- Prüfung auf follow (steht: nofollow robots Meta, onclick und nofollow direkt auf Links, fehlt noch: x-robots-HTTP-Header)
- Prüfung auf hidden (steht: display und visibility nur in Style des Links, fehlt noch: umgebende hidden Tags, externe CSS-Prüfung von Klassen und IDs)
- Linkposition (z.B. von 100 Links auf der Seite kommt der eigene bei Position 97 = Footerlink, geringe Vererbung wahrscheinlich)
- Prüfung auf Indexierbarkeit (steht: rel-canonical-Prüfung, noindex robots Meta, fehlt noch: robots.txt, x-robots HTTP-Header)
- Ermittlung interne / externe Links auf der Seite (steht)
- Gruppierung von Backlinks einer Domain (noch nicht klar, wie man das optisch am besten löst)
- automatische Erkennung des Links und Auslesen des Linktextes (1. Linktext, 2. IMG-Title, 3. IMG-Alt) (Erkennung noch fehlerhaft)
- optionaler automatischer Import von Yahoo Backlinks, Bing Backlinks, Alexa Backlinks, etc.
- Import von CSV-Dateien z.B. Google WMT-Backlinks, automatisch auch denkbar, erfordert aber den Login
- Anlegen von Sub-Accounts mit verschiedenen Rechten (Admin, Mitarbeiter und externe Linkaufbauer)
- einstellbare Tabelleninformationen (Spalten ausblenden/einblenden)
- Export aller Daten per CSV
- Export aller Daten per XML-Schnittstelle
- Berechnung von Arbeitsstunden und Stundenlohn (basierend auf den Zeiten wann ein Sub-Account Links hinzugefügt hat, wielange die Pausen dazwischen waren und welcher Preis pro Link angesetzt wird).
- zusätzliche Auswertung wie erfolgreich ein Sub-Account arbeitet (follow, Link nach x Tagen wieder weg, etc.)
- statistische (grafische) Auswertung von Domain-Pop & IP-Pop
- statistische Auswertung von Whois-Daten
- statistische (grafische) Langzeitauswertung für das eigene Projekt und die Backlink-Seiten (Pagerank, Alexa, etc.)
- Domain- & Wortfilter zur Erkennung von unterschiedlichen Diensten (AVZ, SB, etc.) auf Communitybasis (d.h. jeder Nutzer kann eigene Filter vorschlagen)
- statistische (grafische) Auswertung von Linkkategorien (AVZ, SB, etc.), auch Langzeitauswertung
- Aliasdomains (werden nur akzeptiert, wenn korrekte 301 Weiterleitung auf Hauptdomain steht)
- Auswertung von Mitstreiter-Projekten
- manueller Refresh einzelner Datensätze
- Änderung des automatischen Prüfungsintervals der linkgebenden Seite (ich denke mal 14 Tage reichen als Minimum und 90 Tage als Maximum)
- Hervorhebung von Backlinks, die nicht mehr verfügbar sind oder die noch keinen Link gesetzt haben (z.B. wenn ein Linkeinbau angekündigt wurde, kann dieser bereits dem System hinzugefügt werden)
- optionale Emailbenachrichtung über ungültige Links, einstellbar nach nofollow, nicht indexierbar, entfernt, etc.
- Cloakingprüfung (Ausgabe als Googlebot)
- Sortierung nach allen bekannten Daten (PR, Alexa, Datum der letzten Prüfung, nach Erstellungsdatum, usw.)
- Schnellsuche basierend auf AJAX (wie Google Suchhilfe, nur mit direkter Ausgabe in der Tabelle)
- Schnellcheck der eigenen Rankingdaten (PR, Alexa, etc.)
- einstellbar wie viel Einträge pro Tabellenseite ausgegeben werden sollen (20, 50, 100, 250, 500, unendlich?)
- Auswertung nach Keyword-Häufigkeit (Linktext) bezogen aufs ganze Projekt oder bestimmte/häufigste Deeplinks
- Auslesen von SERPs (erst in ferner Zukunft bzw. eher in einem eigenen Tool)
- vielleicht auch noch interessant: www.abakus-internet-marketing.de/foren/ ... tml#605934
- History zu allen ermittelten Rankings und Staten zu URL, Host und Domain (nach Kalenderwochen, Darstellung als Grafik). Damit das Ranking von Anfang bis zum aktuellen Zeitpunkt genau nachvollzogen werden kann.
- Gruppierung nach Linkpartner
- Gruppierung nach Whois-Inhaber
- Gruppierung nach Server-IP
- Gruppierung nach Registrar (IP-Range)
- Prüfung auf hidden, wenn der Link exakt so wie der umgebende Text aussieht
- Prüfung auf noarchive, da das ein Indiz sein kann, dass der Inhaber den Link vor Google selbst ausschließt
- Wenn noarchive nicht gesetzt ist den Google Cache der Seite regelmäßig auslesen und selber archivieren
- Themengebiet der Domain auslesen bei Adplanner und DMOZ
- DMOZ-Eintrag der Domain prüfen (fast vergessen :P)
- Yahoo-Verzeichnis-Eintrag der Domain prüfen
- Statuscode der linkgebenden Seite beim Crawlen speichern und zusätzlich neben "Link gefunden" auch "Seite geladen" ausgeben
- Falls eine Seite nicht den Status 200 zurückliefert, wird der Link als nicht gefunden markiert und der Intervall auf 24 Std. reduziert (um einen temporärer Ausfall ausschließen zu können), nach 3 Fehlversuchen wird wieder der Standardintervall ausgelöst. Schlägt der Standardintervall noch 2 weitere Male fehl, so wird die linkgebende Seite nicht mehr weiter geprüft, außer man löst manuell ein "Refresh" aus. Dann beginnt der Kreislauf wieder von vorne

Im Vordergrund bei dem Tool soll in jedem Fall die schnelle Bearbeitung liegen. D.h. keine großartigen Formulare, sondern möglichst viel automatisch. Um eine Automatik zu realisieren, muss jeder erstmal seine Projekte hinzufügen. Für jedes Projekt kann man dann Backlinkdaten sammeln. Beim Hinzufügen neuer Links sucht das Script dann nach Übereinstimmungen zu den Projekten und gibt die entsprechenden Linkdaten (Deeplink & Text) aus. Mit einem Klick auf Notizen kann man sofort per AJAX weitere Informationen hinzufügen ohne die Tabelle neu laden zu müssen.

Ein weiteres wichtiges Feature wird die XS-Ajax-Technologie sein. Hierbei tragen alle Mitglieder mit ihrem Browser dazu bei, wenn Daten von den verschiedenen Schnittstellen ausgelesen werden. Auf die Art wird das System sehr schnell und lässt sich auch nicht aushebeln. D.h. sobald die Daten zu den eigenen Backlinks erfasst wurden, werden die Daten der restlichen Mitglieder erfasst. Sollte sich also jemand zwischenzeitlich nicht auf der Seite bewegen, kann es sein, dass seine Backlinkdaten trotzdem schon aktualisiert wurden.

Umso mehr mitmachen, umso größer wird das Netzwerk und um so schneller sind die Daten aktualisiert.

Hier ein Einblick in die aktuelle Baustelle:
Bild

Auch wenn die Liste schon recht lang geworden ist, würde ich mich freuen, wenn Ihr noch weitere Vorschläge einbringt oder einfach mal sagt, was ihr bei anderen Tools so vermisst bzw. nervig findet.

Gruß

Verfasst:
von

Verfasst: 21.06.2009, 16:31
von maloa
ich würd mich freuen wenn du mich informierst wenn die erste nutzbare beta online ist .)

Verfasst: 21.06.2009, 17:28
von mgutt
Ich nutze das Thema als Todo-Liste und werde es regelmäßig aktualisieren. Entsprechend wird dann hier auch veröffentlicht, wann die ersten Alpha-Tester dran dürfen. Von Beta möchte ich nicht sprechen. Der Begriff wird ja nur noch missbraucht :P

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 21.06.2009, 19:05
von scali
Spannendes Tool, so auf den ersten Blick. Würde mich brennend für weitere Infos interessieren.

Verfasst: 21.06.2009, 21:09
von DerStefan
Wenn Du etwas Design einbinden willst, sag mal bescheid ;)

Verfasst: 23.06.2009, 22:47
von mgutt
Ich habe ein inhaltliches Problem bei den Ranking-Parametern eines Backlinks. Und zwar kann ich den PR und die Yahoo Backlinks abfragen, die zu diesem Backlink gehören. Aber der Alexa Rank / Backlinks kann ich nur für das Gesamtprojekt einlesen.

Macht es da überhaupt Sinn diese Paramter einzulesen / auszugeben? Oder soll ich ein Popup für den Backlink entwickeln, wo auch die Parameter der Hauptdomain abgefragt werden können?

Ansonsten gäb es solche Ergebnisse:
example.com pr5 alexa3.000 yahoo210
example.com/unterseite1.html pr3 alexa3.000 yahoo10
example.com/unterseite2.html pr0 alexa3.000 yahoo0

Also der Alexa Rank bleibt dann immer gleich.

Verfasst: 24.06.2009, 05:57
von t-rex
Hi,

bei diesen Detailangaben sehe ich 2 Möglichkeiten.

1. Du gibst bei Unterseiten den Alexa Rank mit Null an und verweist "im Kleingedruckten" darauf, dass es nur einen Wert für das gesamte Projekt gibt.

2. Wenn Du ein Popup oder Layer anzeigst, dann als kleine Übersicht die Werte PR, YPL, ALEXA der Hauptdomain und hervorgehoben die erfassten Werte für die Unterseite. (Das wäre mein Favorit)

Ich würde jedenfalls Werte, die sich nicht direkt auf die Unterseite beziehen, sondern aufs Hauptptojekt, auch nicht ins gleiche Verhältnis setzen wie die echten Detailwerte.

Sonnige Grüsse
HaPe

Verfasst: 24.06.2009, 06:29
von Seostern
Sieht viel versprechend aus. Bin mal gespannt.

Verfasst: 24.06.2009, 14:53
von Michael
Falls es interessant ist, ich habe auch mal mit so einem Tool angefangen. Kannst die Quellen gerne für Deine Bedürfnisse verarbeiten:

Demo (Momentan etwas langsam da hohe Last :-( ):
https://webhosting-forum.net/backlinkchecker/

Download:
https://sourceforge.net/projects/backlinkchecker/

Momentan fehhlt mir leider sowohl die Zeit als auch die Motivation daran weiter zu arbeiten. Sorry :-(

Verfasst: 24.06.2009, 14:56
von Lord Lommel
Der war/ist aber gut !

Verfasst: 24.06.2009, 15:27
von mgutt
Michael hat geschrieben:Falls es interessant ist, ich habe auch mal mit so einem Tool angefangen. Kannst die Quellen gerne für Deine Bedürfnisse verarbeiten:

Demo (Momentan etwas langsam da hohe Last :-( ):
https://webhosting-forum.net/backlinkchecker/

Download:
https://sourceforge.net/projects/backlinkchecker/

Momentan fehhlt mir leider sowohl die Zeit als auch die Motivation daran weiter zu arbeiten. Sorry :-(
Danke, schaue ich mir in jedem Fall mal an. Da ich nicht mit Proxys arbeite, also nicht meinen Server damit belaste, hoffe ich, dass sich die Last in Grenzen halten wird. Auch überlasse ich die Entscheidung, welcher Import gerade durchgeführt wird, dem Nutzer. Falls er z.B. erstmal nur "hochwertige" Links von WMT einlesen will und die von Yahoo außen vor lassen möchte.

Ein weiteres Problem sehe ich dabei, wenn der Link nicht gefunden wurde. Also wenn Yahoo einen Backlink angibt, der zwischenzeitlich nicht mehr existiert. Soll ich den dann gar nicht übernehmen oder den übernehmen und entsprechend markieren. Je nachdem wie viele Links das sind, kann das für den Nutzer ne Menge Arbeit sein die toten Links zu entfernen z.B. bei Sidewide Links.. obwohl ich kann ja einfach ein Entfernen für eine komplette Domain realisieren. Das könnte das Problem lösen.

Zeigt Altavista und MSN/Bing auch Unterseiten Backlinks an? Dann nehme ich die auch noch auf. Die dargestellten Spalten, wird man eh ein-/ausschaltbar machen können. Daher ist die Werteanzahl unerheblich :P

Verfasst: 24.06.2009, 15:36
von JohnBi
Michael hat geschrieben:Falls es interessant ist, ich habe auch mal mit so einem Tool angefangen. Kannst die Quellen gerne für Deine Bedürfnisse verarbeiten:

Demo (Momentan etwas langsam da hohe Last :-( ):
https://webhosting-forum.net/backlinkchecker/

Download:
https://sourceforge.net/projects/backlinkchecker/

Momentan fehhlt mir leider sowohl die Zeit als auch die Motivation daran weiter zu arbeiten. Sorry :-(
Wow, ich hab das Tool gerade mal benutzt und ich muss sagen der findet echt sogut wie alle Backlinks, auch viele sitewide links, da wäre ne Filter Option gut, aber sonst ein Hammer Tool, schade das es nie zuende gebracht wurde. Ich bin auf jedenfall begeistert.

Verfasst: 24.06.2009, 15:56
von mgutt
Hmm.. Dein Tool prüft ja gar nicht ob der Backlink da ist bzw. wie er verlinkt wurde. Da Yahoo z.B. viel Schrott auswirft (eingebettete Bilder, nofollow, 301 = Backlink etc.) kann man so keine wirkliche Wertung durchführen.

google.de/uds/GwebSearch kannte ich noch nicht. Die Schnittstelle werde ich denke ich auch nutzen. Die Frage ist nur, ob die ebenfalls personalisierte Ergebnisse ausgibt oder nicht.

Bei Yahoo habe ich dagegen gesehen, dass die ne Schnittstelle anbieten, aber ich weiß nicht genau, welche Daten die genau enthält bzw. welche Filter möglich sind. Da werde ich mich noch einlesen.

Verfasst: 24.06.2009, 23:26
von mgutt
@ Michael
Warum eigentlich Altavista und All the Web. Sind die Daten nicht gleich von denen?

Ich überlege nämlich gerade welchen ich hinzufügen soll :P

EDIT: Ok wenn ich nach den Besucherzahlen gehe, dann wohl eher Altavista ;)

Verfasst: 25.06.2009, 09:49
von ole1210
Wow....das soll wohl die Eierlegendewollmilchsau werden! :-)

Habe noch nen zusätliches Feature:
- Gruppierung nach Tauschpartner

Dann könnte man sehen, mit welchem Vogel man welche Links getauscht hat. Sind ja doch manchmal mehrere...