Seite 1 von 3

Tool zur Überwachung der Position in SuMas pro Keyword

Verfasst: 05.06.2009, 10:59
von AndreasMeier
Hallo zusammen,

um das Marketing effektiver zu gestalten, such ich nach Möglichkeiten, wie man am besten die Position der eigenen Seite pro Schlüsselwort in Suchmaschinen überwacht.
Am liebsten wäre mir ein PHP-Skript, welches man dann automatisch laufen lassen könnte, aber auch Namen von anderen Programmen wären interessant.
Ich hab bis jetzt die PHP-Projekte WATCH und SITERANK (website-spy) gefunden.

Darum mal die Frage an euch, wie ihr eure Position bei Schlüsselwörtern in SuMas überwacht?

Interessant wäre auch eure Meinung, ob das gefährlich für die eigene Seite ist (aber eigentlich sollten bei so einer Abfrage ja nur das Schlüsselwort, nicht die eigene Seite an Google übermittelt werden).

Danke und Gruß
Andreas

Verfasst:
von

Verfasst: 05.06.2009, 11:26
von Lord Lommel
Ein PHP-Skript von eigenen Server ... da kannst du auch gleich bei Google anrufen und sagen, daß sie deine Seiten aus dem Index nehmen sollen. Alle anderen Freeware-Lösungen die ich kenne haben den Nachteil, daß Google sie schnell blockt, wenn man nicht zwischen den Abfragen ein paar Minuten wartet. Dann geben sie meist gar nichts mehr aus. Ich schreib mir deshalb mein Tool grade selber.

Verfasst: 05.06.2009, 11:47
von AndreasMeier
Nee, PHP-Skript oder Tool läuft natürlich nicht auf dem Server selbst, sondern auf einem Client, z.B. daheim.

Verfasst:
von

Verfasst: 05.06.2009, 12:01
von gnark
Lord Lommel hat geschrieben:Ein PHP-Skript von eigenen Server ... da kannst du auch gleich bei Google anrufen und sagen, daß sie deine Seiten aus dem Index nehmen sollen. Alle anderen Freeware-Lösungen die ich kenne haben den Nachteil, daß Google sie schnell blockt, wenn man nicht zwischen den Abfragen ein paar Minuten wartet. Dann geben sie meist gar nichts mehr aus. Ich schreib mir deshalb mein Tool grade selber.
Was macht denn dein Script dann anders? Abfragen über Proxies oder wie löst man das problem?

siterank hab ich auch ausprobiert, hat aber ein paar nachteile, ergebnisse stimmen nicht 100% und andere kleinigkeiten.

Nutze im moment private-ranking.de, ist leider beschränkt auf 5 domains und 20 Keywords/domain.

Überlege auch gerade, mir ein eigenes script zu schreiben.

Verfasst: 05.06.2009, 12:10
von Lord Lommel
Da hst du den Nagel auf den Kopf getroffen. Das macht das Skipt pro Einzelabfrage nicht schneller aber im Gesamten beschleunigt es doch schon enorm.

Verfasst: 05.06.2009, 14:55
von gnark
wie machst du das? über cURL?
Hältst du die Proxy-liste automatisch aktuell oder manuell?
Du hast nicht zufällig Lust, ein bisschen code zu sharen? :)

Verfasst: 05.06.2009, 15:46
von Lord Lommel
Ich mach das in C#.^^

Eigentlich wollte ich es auch webbasiert über ein PHP-Skript machen. Das hat anfangs auch gut geklappt, aber dann ist es irgendwann zu komplex geworden, um das Ganze noch vernünftig debuggen zu können. Von daher hab ich mich entschlossen, das Prog als C# Lösung zu versuchen.

Wenn du es in PHP machen willst, mußt du eine TCP-Verbindung zum Proxy aufmachen (sockets) und dann einfach die HTTP-Befehle durchschicken. Das was zurückkommt ist dann der HTTP-Header und die Seite. Du solltest aber anonyme Proxies nehmen uns selbst dann klappt es nicht immer. Deshalb hab ich das auch unter PHP nicht weitergemacht, es war einfach zu umständlich jedes mal neue Debug-Ausgaben zu basteln, um das alles richtig abzufangen. Oftmals hab ich dann erstmal gar nicht mitbekommen, ob der Block vom Proxy oder von Google kommt.

Verfasst: 05.06.2009, 15:48
von MrTunes
Wie viele keys fragt ihr denn ab?
Ich fahr eigentlich ganz gut mit 2-3 sekunden zwischen den queries. Ob das ne Minute dauert ist mir latte, da es einfach im Hintergrund läuft.
Eine Lösung mir Proxy Liste habe ich für PR Abfragen. Da nervt aber das Erstellen und Warten der Liste ziemlich. Daher setz ich beim Ranking auf das einfachere Warten.

Verfasst: 05.06.2009, 16:36
von gnark
Hab mir überlegt, die Proxyliste zu grabben (z.b. hier https://www.proxy4free.com/page1.html) und dadurch aktuell zu halten.
Wenn der eine Proxy nicht funzt, wird der nächste probiert ...

so socket-kram und protokollzeugs sind leider böhmische dörfer für mich ... muss mich da mal einarbeiten

Verfasst: 06.06.2009, 00:41
von Lord Lommel
Jo, so hab ich das auch gemacht. Miß noch die Geschwindigkeit und dann das als Wichtung für nen Zufallsgenerator nehmen, der nen Proxy raussucht.

@MrTunes:
Ca. 10 Keys pro Domain. Da ich aber teilweise dreistellige Platzierungen habe, muß natürlich auch teilweise gut geschaufelt werden. Wenn ich zwei Keys abgefragt hab, muß ich ein paar Minuten warten, sonst krieg ich das formschöne Captcha. Da war ich immer ne ganze Weile beschäftigt. ^^

Verfasst: 06.06.2009, 08:23
von MrTunes
Ich mach pro key nur eine Abfrage mit num=10-100. Alles was größer Top10 ist interessiert mich sowieso nur ganz grob und >100 sowieso gar nicht.
Captcha hatte ich dabei noch nie.

Verfasst: 06.06.2009, 10:23
von AndreasMeier
Ich frag mich dann aber echt, wie SEO-Agenturen dass dann für ihre Kunden machen.
Da gibts ja auch Berichte über Positionierung etc.

Läufts bei denen auch so kompliziert ab?

Verfasst: 06.06.2009, 12:49
von gnark
wieso kompliziert?
Entweder die nutzen irgendeine kommerzielle software,
(https://www.google.de/search?q=seo+software)
oder die haben einen, der ihnen die Tools programmiert.

Verfasst: 06.06.2009, 14:40
von Lord Lommel
Es gibt auch Software, die das kann. Aber die kostet dann 500+ Euro und hat nichtmal alle Features, die ich brauche.

Verfasst: 08.06.2009, 23:26
von bloddy newbie
Ich habe mir eine eigene Lösung programmiert und fahre sehr gut damit.
Das Frontend ist auf einem Webserver installiert. Somit haben auch Dritte über eigene Accounts Zugriff auf die Daten. Der Client (der Positions Checker, kleines JAVA Progrämmchen) läuft bei mir lokal auf dem Rechner und kommuniziert mittels API mit dem Webserver. PR, historische Position (mit Chart) für Google/MSN (Bing)/YAHOO, Vergleich von Konkurrenten auf selbiges... den Backlinkchecker habe ich abgeschaltet... Sumas sind zu schweigsam geworden :-)

Das System läuft nun seit gut 3 Jahren stabil. Die Umstellung nach Bing hat keine 3 Minuten gedauert.

Es gibt solche Systeme (nicht zu kaufen) ;-).

Grüße