Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Keyword-Ranking-Software mit minimum Top-1000 Monitoring?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
SEOBlaster
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 22.08.2013, 19:13

Beitrag von SEOBlaster » 22.08.2013, 19:22

Hallo ,

bin auf der Suche nach einer Keyword-Ranking-Software (Deutsch oder Englisch völlig egal), welche die Positionierung eines Keywords minimum im Bereich der ersten 1000 Suchmaschinenergebnisse in Google.de anzeigt. Die Monitoring-Software soll außerdem die tägliche Positions-Veränderung des Keywords anzeigen können.

Wer kennt solch eine Software oder Online-System?

VG
SEOBlaster :D

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 22.08.2013, 19:38

fuer die ersten 1000 ergebnisse kenne ich keine anwendungen. xovi kann dir taegliche positionen liefern.

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 26.08.2013, 12:43

Naja, die ersten tausend ... das macht ja dann wohl gar keinen Sinn ... spätestens ab Position 37 rechnet sich Google doch keinen Wolf mehr, nur um ein Ranking festzulegen :roll:
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

SEOBlaster
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 22.08.2013, 19:13

Beitrag von SEOBlaster » 26.08.2013, 13:02

luzie: Darum gehts nicht, sinnloser Post.

Kennt niemand eine entsprechende Software?

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 26.08.2013, 13:11

seoblaster,

ich habe mal sowas programmiert. wenn du delphi oder pascal verstehst, gebe ich dir gern die quellcodeschnipsel frei.

gruß

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 27.08.2013, 09:42

Google zeigt doch gar keine 1.000 mehr an, also was soll das?
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 27.08.2013, 09:50

luzie,

doch ... google zeigt auch bis 1000 ergebnisse an und diese lassen sich selbstverstaendlich mit einem algo erfassen. unabhaengig davon sehe ich auch keinen sinn darin.

gruß

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 27.08.2013, 12:44

Soweit ich weiss haben sie das jetzt von 1.000 auf 700 reduziert? Und ich weiss, dass sich auch 1.000 durch einen Algo erfassen lassen, bloss tun sie's eben nicht, wozu.
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 27.08.2013, 12:54

naja ich kann mir vorstellen, dass eine solche tiefenanalyse sinn bei langzeitbeobachtungen macht. ich biete bei mir auch nur 0-100 an.

gruß

SEOBlaster
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 22.08.2013, 19:13

Beitrag von SEOBlaster » 27.08.2013, 16:53

hallo hanneswobus,

ich nehme dein Angebot gerne an.

wie sollen wir weiterverfahren?

vg

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 27.08.2013, 16:57

seoblaster,

ich meinte nicht, dass ich dir meine software bereitstelle o. verkaufe. ich meinte nur, dass ich dir gern die programmierten prozeduren gebe. du brauchst dann hierfuer einen compiler und musst den code fuer deine beduerfnisse anpassen. kannst du das?
falls ja, kannst du mich via 0176.67472781 kontaktieren.

gruß

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 27.08.2013, 17:08

curl & sed ?

Sowas braucht keine 10 Zeilen bash code. Proxy Liste, serp mit curl holen, sed drüber und voila. Geht auch mit php, dann aber preg_match_all.

Das ist keine Frage der Software sondern der Menge an Keys zu Proxies.
Das programmiert man auch nicht, man scripted es (bis auf die Auswertung natürlich). Einfach das Script automatisch laufen lassen, mysql Eintragen geht auch per bash. Das Ganze macht mein backup vserver, damit der auch was zu tun hat. Die Auswertung macht ein php script, Teil meiner Arbeitsoberfäche.
Ist aber wirklich leicht, 2 tables, 2 drop downs und eine mysql Abfrage.

Wenn man weiß, wie einfach es ist, dann ärger ich mich, so ein keyword service nicht selber aufgezogen zu haben. Aber der Kostenfaktor sind schlicht die Proxies für diese Art von Service.
Zuletzt geändert von mtx93 am 27.08.2013, 17:15, insgesamt 1-mal geändert.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 27.08.2013, 17:12

mtx93,

fuer mich war damals eine offlineloesung extrem wichtig, daher delphi. ich brauche hier auch keine proxy-listen. :-)

gruß

mtx93
PostRank 8
PostRank 8
Beiträge: 809
Registriert: 16.12.2011, 00:35

Beitrag von mtx93 » 27.08.2013, 17:17

hanneswobus,

Ich hatte ein paar mehr keys für ein grösseres Projekt, da fängt google schnell an die ips zu bannen. Wir reden hier ja über echtes scrapen, das mag google nicht so gerne.

Ich hatte das alles 2004 oder so fertig, aber mit seo & co hatte ich damals nur wenn ich gezwungen war was zu tun. Kann ja keiner ahnen, das das mehr Leute wollen :)

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6386
Registriert: 16.03.2008, 01:39

Beitrag von hanneswobus » 27.08.2013, 17:20

mtx93,

joa ich verstehe schon. ich muss i.d.r. um die 2k keys je tag ziehen. das geht bei mir problemlos ohne proxies.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag