Seite 1 von 1

Keyword-Ranking-Software mit minimum Top-1000 Monitoring?

Verfasst: 22.08.2013, 19:22
von SEOBlaster
Hallo ,

bin auf der Suche nach einer Keyword-Ranking-Software (Deutsch oder Englisch völlig egal), welche die Positionierung eines Keywords minimum im Bereich der ersten 1000 Suchmaschinenergebnisse in Google.de anzeigt. Die Monitoring-Software soll außerdem die tägliche Positions-Veränderung des Keywords anzeigen können.

Wer kennt solch eine Software oder Online-System?

VG
SEOBlaster :D

Verfasst:
von

Verfasst: 22.08.2013, 19:38
von hanneswobus
fuer die ersten 1000 ergebnisse kenne ich keine anwendungen. xovi kann dir taegliche positionen liefern.

Verfasst: 26.08.2013, 12:43
von luzie
Naja, die ersten tausend ... das macht ja dann wohl gar keinen Sinn ... spätestens ab Position 37 rechnet sich Google doch keinen Wolf mehr, nur um ein Ranking festzulegen :roll:

Verfasst: 26.08.2013, 13:02
von SEOBlaster
luzie: Darum gehts nicht, sinnloser Post.

Kennt niemand eine entsprechende Software?

Verfasst: 26.08.2013, 13:11
von hanneswobus
seoblaster,

ich habe mal sowas programmiert. wenn du delphi oder pascal verstehst, gebe ich dir gern die quellcodeschnipsel frei.

gruß

Verfasst: 27.08.2013, 09:42
von luzie
Google zeigt doch gar keine 1.000 mehr an, also was soll das?

Verfasst: 27.08.2013, 09:50
von hanneswobus
luzie,

doch ... google zeigt auch bis 1000 ergebnisse an und diese lassen sich selbstverstaendlich mit einem algo erfassen. unabhaengig davon sehe ich auch keinen sinn darin.

gruß

Verfasst: 27.08.2013, 12:44
von luzie
Soweit ich weiss haben sie das jetzt von 1.000 auf 700 reduziert? Und ich weiss, dass sich auch 1.000 durch einen Algo erfassen lassen, bloss tun sie's eben nicht, wozu.

Verfasst: 27.08.2013, 12:54
von hanneswobus
naja ich kann mir vorstellen, dass eine solche tiefenanalyse sinn bei langzeitbeobachtungen macht. ich biete bei mir auch nur 0-100 an.

gruß

Verfasst: 27.08.2013, 16:53
von SEOBlaster
hallo hanneswobus,

ich nehme dein Angebot gerne an.

wie sollen wir weiterverfahren?

vg

Verfasst: 27.08.2013, 16:57
von hanneswobus
seoblaster,

ich meinte nicht, dass ich dir meine software bereitstelle o. verkaufe. ich meinte nur, dass ich dir gern die programmierten prozeduren gebe. du brauchst dann hierfuer einen compiler und musst den code fuer deine beduerfnisse anpassen. kannst du das?
falls ja, kannst du mich via 0176.67472781 kontaktieren.

gruß

Verfasst: 27.08.2013, 17:08
von mtx93
curl & sed ?

Sowas braucht keine 10 Zeilen bash code. Proxy Liste, serp mit curl holen, sed drüber und voila. Geht auch mit php, dann aber preg_match_all.

Das ist keine Frage der Software sondern der Menge an Keys zu Proxies.
Das programmiert man auch nicht, man scripted es (bis auf die Auswertung natürlich). Einfach das Script automatisch laufen lassen, mysql Eintragen geht auch per bash. Das Ganze macht mein backup vserver, damit der auch was zu tun hat. Die Auswertung macht ein php script, Teil meiner Arbeitsoberfäche.
Ist aber wirklich leicht, 2 tables, 2 drop downs und eine mysql Abfrage.

Wenn man weiß, wie einfach es ist, dann ärger ich mich, so ein keyword service nicht selber aufgezogen zu haben. Aber der Kostenfaktor sind schlicht die Proxies für diese Art von Service.

Verfasst: 27.08.2013, 17:12
von hanneswobus
mtx93,

fuer mich war damals eine offlineloesung extrem wichtig, daher delphi. ich brauche hier auch keine proxy-listen. :-)

gruß

Verfasst: 27.08.2013, 17:17
von mtx93
hanneswobus,

Ich hatte ein paar mehr keys für ein grösseres Projekt, da fängt google schnell an die ips zu bannen. Wir reden hier ja über echtes scrapen, das mag google nicht so gerne.

Ich hatte das alles 2004 oder so fertig, aber mit seo & co hatte ich damals nur wenn ich gezwungen war was zu tun. Kann ja keiner ahnen, das das mehr Leute wollen :)

Verfasst: 27.08.2013, 17:20
von hanneswobus
mtx93,

joa ich verstehe schon. ich muss i.d.r. um die 2k keys je tag ziehen. das geht bei mir problemlos ohne proxies.