Seite 1 von 1

Wie analysiert Ihr die SERPs?

Verfasst: 28.07.2009, 11:54
von Andreas I.
Hallo,

Methode A:
bisher habe ich die SERPs immer nur dahingehend analysiert: Wo stehe ich, hab ich mich verbessert, kann man sich da irgendwie irgendwo anhängen?

Methode B:
Nun brauche ich aber etwas, das mir zu einem Keyword sämtliche Platzierungen in den SERPs von Anfang bis Ende ausliest, zu jeder Domain die ausgehenden Links anzeigt und womit ich dann die SERPs auf gute oder böse Gruppen hin untersuchen kann. Darstellung evlt. als Graph mit mehreren Sichten:
Domain, Seite, Domaineigner, PR... für die Knoten
Startseite, Linktext, Zielseite, Datum (falls möglich),... für die Kanten

Sowas könnte ich auch selber programmieren - habe dazu aber ehrlich gesagt keine Lust. Gibt es sowas schon als Opensource?

Wie analysiert Ihr die SERPs? A oder B?

Verfasst:
von

Verfasst: 28.07.2009, 16:26
von mano_negra
Sowas könnte ich auch selber programmieren
wenn du das kannst dann mach es.
dann wirst du dir wahrscheinlich keine gedanken mehr um "böse gruppen" machen.

Verfasst: 28.07.2009, 16:37
von Andreas I.
Ist aber keine Sache von drei Tagen...

Verfasst:
von

Verfasst: 28.07.2009, 16:45
von mano_negra
na das kann ich mir denken, der erfolg wäre dir aber sicher

edit: ich habe ja nicht gemeint, dass du deine jetzigen probleme damit analysierst, sondern du könntest damit ein neues projekt aufmachen.

Verfasst: 28.07.2009, 16:56
von Andreas I.
Nach drei Tagen steht vielleicht ein Protoyp.
Drei Tage, an denen ich absolut keine anderen Aufgaben habe und der Kopf völlig frei ist.

Weil soooo waaahnsinnig kompliziert ist das ganze ja nun auch wieder nicht. Im Grunde muss man halt nur die ersten 1000 Ergebnisse einlesen, dann mit einer gewissen maximalen Rekursionstiefe so etwas wie Xenu drüberlaufen lassen und die Ergebnisse in einer Datenbank speichern. Eine Tabelle für die Links, eine für die Domains. Die Sichten (Domain linkt auf Domain, Eigner-auf-Eigner, uws.) realisiert man mit ein paar passend formulierten SQL-Queries.

Im Geiste habe ich das schon so gut wie fertig, aber da gibt es sicher jede Menge nervigen Kleinkram.

Eigentlich eine Aufgabe für einen Praktikant oder eine Praktikantin!

Verfasst: 28.07.2009, 17:04
von mano_negra
Andreas I. hat geschrieben:Nach drei Tagen steht vielleicht ein Protoyp.
Drei Tage, an denen ich absolut keine anderen Aufgaben habe und der Kopf völlig frei ist.

Weil soooo waaahnsinnig kompliziert ist das ganze ja nun auch wieder nicht. Im Grunde muss man halt nur die ersten 1000 Ergebnisse einlesen, dann mit einer gewissen maximalen Rekursionstiefe so etwas wie Xenu drüberlaufen lassen und die Ergebnisse in einer Datenbank speichern. Eine Tabelle für die Links, eine für die Domains. Die Sichten (Domain linkt auf Domain, Eigner-auf-Eigner, uws.) realisiert man mit ein paar passend formulierten SQL-Queries.

Im Geiste habe ich das schon so gut wie fertig, aber da gibt es sicher jede Menge nervigen Kleinkram.

Eigentlich eine Aufgabe für einen Praktikant oder eine Praktikantin!
für mich ist das alles wahnsinnig kompliziert, ich bin kein programmierer.
aber ich bin mir sicher dass es eine grosse nachfrage nach so einen tool gibt und ich habe sowas auch noch nicht gesehen.
wenn du nach 3 tagen schon einen prototyp erstellen kannst, frag ich mich wirklich warum du das noch nicht gemacht hast.
vielleicht habe ich aber auch eine andere vorstellung von dem tool.

Verfasst: 28.07.2009, 18:29
von Lord Lommel
Die Frage ist, ob man ein solches Tool überhaupt rumgeben will. Es ist ja für Geld schwer aufzuwiegen. Vielleicht maximal als Tausch gegen einen guten Tip.

Verfasst: 28.07.2009, 22:09
von ole1210
Methode A!

Da ich eigentlich immer auf Platz 1 bin reicht mir das. Was hinter mir passiert, ist mir reichlich egal.

Verfasst: 29.07.2009, 08:14
von philophax
@LL
Wenn ich mich nicht irre war Photoshop in den Anfängen kostenlos. Irgdendwann - als das Programm sich als "Quasi-Standard" etabliert hatte - gab es das erste kostenpflichtige Update. Später gab es auch das Basisprogramm nur noch gegen Geld ...

Verfasst: 29.07.2009, 08:21
von JohnBi
Ich sehe das ähnlich wie ole1210, mich interessiert nur was vor mir ist und maximal Seite 2, was sich dahinter abspielt interessiert weder den Google-Nutzer noch mich.

Verfasst: 29.07.2009, 09:02
von Lord Lommel
philophax hat geschrieben:@LL
Wenn ich mich nicht irre war Photoshop in den Anfängen kostenlos. Irgdendwann - als das Programm sich als "Quasi-Standard" etabliert hatte - gab es das erste kostenpflichtige Update. Später gab es auch das Basisprogramm nur noch gegen Geld ...
Es gibt sogar Freaks, die bauen Software, die kostenlos bleibt. Die Firebird Datenbank ist frei und ich kann sie für ein Programm benutzen, daß ich dann anschließend verkloppe. Ich meinte damit aber zwei andere Sachen. Erstens sind 30 Euro für einen guten Backlink-Checker wenn man bedenkt, wie viel Zeit ich mir damit sparen kann. Normalerweise könnte so etwas viel mehr kosten, als jemand ansatzweise zu bezahlen bereit wäre, weil es ja kostenloses gibt. Deshalb programmiere ich noch etwas drumherum und bringe exklusives Wissen, ein damit es sich für mich überhaupt lohnt, das selber zu proggen. Da ist aber der Punkt, daß so etwas dann viele nicht freiwillig rausgeben wollen. So ein Tipp ist ja wie gesagt immer mehr wert, als man reinkriegen kann (wenn er gut ist). Also gebe ich das Teil nur an die Leute raus, die mir auch einen guten Tip liefern. Es geht hier weniger um die Open Sourc Philosophie, sondern mehr um "Schützt eure Anlagen".

Verfasst: 29.07.2009, 10:01
von fi-ausbilden
also, die SERPs pro Keyword speichern und sich historisch merken kann "Watch", auch wenn es noch nicht ganz ausgereift ist und die Weiterentwicklung auch nicht so "flutschen" will, weil ich selber nicht entwickeln kann (schon ein wenig, aber nicht so, wie man es machen sollte :-) )

https://www.fi-ausbilden.de/blog/watch/

Verfasst: 29.07.2009, 10:50
von Zasch
Hey Andreas, BTW: Die Links ZIEHEN grade gut durch :-)

Ich gehe immer wie folg vor: Wenn das Projekt wichtig ist analyse ich die ersten 1000 BL´s der Top 100. So hab ich erstmal themenrelevante BL Quellen. Doppelte raus Links setzten und das Ranking mit der List versuche aufzubauen.

Dei Methode ist zwar sehr mühselig, aber auf Dauer erfolgreich.

Wenn ich mal eben nen Schnellschuss machen soll, dann müssen halt nur die TOP20 oder TOP30 herhalten.

Bei mir funktionierts.