ich bastel gerade an einem SEO-Tool, welches natürlich auch die SERPS Abfragen soll.
Jetzt frag ich mich wie ich das angehen soll.
Eine Möglichkeit wäre einfach ein HTTP-Request auf Googles Webseite zu machen und die Ergebnisse zu parsen.
Nur Google setzt dort ein Limit pro IP oder? Weiß jemand wo ds Limit liegt? Abfragen pro Minute?
Die andere Möglichkeit wäre es über die Google API zu realisieren, nur hab ich da noch keine Erfahrung mit.
Ist das problemlos möglich? Gibt es dort ein Limit?
Wie machen das denn die großen Seo Tools die es so gibt?
positionen abfragen wird schwierig. die api liefert andere ergebnisse, aber auch bei der websuche fließen zunehmend andere faktoren in das ranking ein (location, personalisierun, etc.).
bei der web abfrage kommst du um proxies nicht umher.
edit: wofür brauchst du das tool denn? bei ner fingerübungwäre das mit der anzahl wurst. ansonsten wirst du wohl ein rad neu erfinden, das es schon x mal gibt, oder?
Das heißt mit der "alten" Google API gibt es kein Abfragelimit?
oder wie soll ich das verstehen propaganda?
Wie komm ich denn an die alte API?
Um SERPS anhand der location zu bestimmen, geht das dann nur über einen Server ner IP aus dem Land für was ich die SERP haben will oder kann man das auch einfach über die URL steuern?
Ich brauche das ganze für ein eigenes Seo Tools welches ich meinen Kunden anbieten möchte. Ich weiß sowas gibts schon aber ich möchte mir ein eigenes schreiben.
AJAX API nur die ersten 64 Ergebnisse
Alte API die ersten 1000 Treffer, max. 1000 Requests pro Tag, brauchst aber einen API Key und meinen gebe ich nicht her
Wenn du die abfragen von einer dynamischen api machst, kannst du doch wenn die 403 page kommt einfach deine ip erneuern, mit routercontrol und php geht das prima