Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Zum Pagerank

Alles zum Thema Google Pagerank und Backlink Updates.
xAaron
PostRank 5
PostRank 5
Beiträge: 329
Registriert: 23.08.2009, 18:10

Beitrag von xAaron » 28.10.2009, 17:45

Hier und an anderer Stelle in der SEO-Welt geistern so viele mit Halbwissen gespickte Infos zum Pagerank rum, dass ich mich bemüßigt fühle mal ein paar Basics richtig zu stellen.

Vorneweg, der Pagerank ist eine geniale Idee, der google schon zu Anfang den entscheidenden Vorteil gegen yahoo sicherte. Er wird deshalb weiter ein fester Bestandteil des google-Algorithmus sein.
Er war, ist und wird natürlich nur ein Teil des Algorithmus sein, aber durchaus ein gewichtiger.


Zur Genauigkeit des PR

Wenn beispielsweise der SEO-Vertreter einer anerkannten Minderheit schreibt
Die Abstufung für unseren Statusbalken im Browser ist in gerade mal 10 Ziffernstellen und den unranked Status unterteilt. Intern wird es schon jetzt eine wesentlich feinere Skala geben
dann zeugt dies von einem Nichtverstehen des Algorithmus. Google hat nicht eine wesentlich feinere Skala, sondern exakte Werte, da der Algorithmus genau diese berechnet und sie erst hinterher für die ambitionierten Webmaster dieser Welt auf eine logarithmische Skala eingedampft werden.


Die Notwendigkeit des PR-Updates

Auch wird google nicht umhin kommen ein PR-Update durchzuführen(nicht zu verwechseln mit einer Änderung des Grünen Balkens), der Glaube dieses weglassen zu können, da google ja eh "den pagerank ständig aktualisiert" zeugt ebenfalls von einem gesunden Halbwissen.
Der Pagerank Algorithmus funktioniert so, dass jede Linkveränderung, sprich das Hinzufügen oder Entfernen eines Links Auswirkungen auf den PR sämtlicher Webseiten hat:
Wenn spiegel.de einen link zu einer meiner Seiten setzt, dann erhöht sich deren PR, entsprechend erhöht sich der PR aller Seiten, auf die ich verlinke und der, auf die diese verlinken usw. Da fast alle Seiten von fast allen anderen über x Stationen erreichbar sind, erhöht oder erniedrigt jede link-Änderung den PR fast aller anderen Seiten. Dies natürlich ab einer gewissen Entfernung von der Seite mit dem neuen link nur noch im Nachkomma-Bereich, der natürlich im Algorithmus ab einer bestimmten Stelle beschnitten wird, deshalb hat ein neuer link nur Auswirkungen auf eine begrenzte Zahl an Stationen.
Was mit dem ständigen Aktualisieren gemeint ist, ist folgendes: wenn eine Seite einen neuen link erhält, dann kann für diese Seite und auch für die, die von ihr verlinkt werden der PR angepasst werden. Google wird dies aber nur für eine und höchstens zwei Stationen tun, alles andere wäre in der Berechnung zu teuer, da der neue link ja an 100erte und die jeweils wieder an 100erte PR weiterfließen lassen. Das bedeutet, wenn eure Startseite einen neuen link bekommt, dann wirkt sich dies erst mit dem PR-Update auf den PR eurer Unterseiten aus(wenn google nur eine Station sofort berechnet).
Es muss deshalb von Zeit zu Zeit eine Berechnung der kompletten PR-Matrix geben. Denn dafür den PR aller Webseiten auf ein Mal zu berechen gibt es gute Algorithmen.
Das geht dann nicht so, dass für einen neuen link Milliarden von PR-Werten geändert werden, sondern es werden alle PR-Werte direkt in Abhängigkeit von allen links berechnet. Damit ist die PR-Berechnung überhaupt erst möglich.
Dies ist aber dennoch so rechenintensiv, dass auch google das nicht täglich machen kann.


Gewichtung einzelner links

Ein weiterer Mythos ist, dass der PR-Algorithmus dumm ist und der footer-link von der Spam-Seite gleich bewertet wie den Text-link aus dem Empfehlungs-Blog-Post, nur weil die Seiten den gleichen PR haben. Dafür gibt es kein Argument.
Wenn ich den PR-Algorithmus implementieren würde, dann würde ich jeden link entsprechend gewichten, ob er im footer steht, ob er auf einer Seite steht, die auch auf bad sites verlinkt, Trust, usw. halt den ganzen Kram, der einem einfällt würde in das Gewicht dieses links einfließen. Oder, um im Random-Surfer-Modell zu bleiben: ich würde die onpage-Wahrscheinlichkeit für jeden link berechnen, dass ihm gefolgt wird.
Dies kann man auch sehr gut automatisch berechnen, indem Daten über das link-Klick-Verhalten der Nutzer auf Webseiten ermittelt werden(die google über Analytics z.B. hat), also beispielsweise: "wie oft klicken Besucher auf footer-links" und dann mit den entsprechenden Verfahren des Maschinellen Lernens automatisch die Relevanz von links ermittelt wird. Damit kann dann jeder neue link direkt automatisch ein Gewicht zugewiesen werden, das dann in den PR einfließt.
Google wird dies wohl nicht anders machen, zumindestens gibt es aus algorithmischer Sicht dafür kein Argument.


Das alles bedeutet nicht, dass sich google sklavisch diesem Algorithmus unterwerfen wird, z.B. finde ich es naheliegend, dass eine Seite, die nur von einer einzigen Seite verlinkt wird(z.B. die bekannten Spam-links von einzelnen PR7 Seiten), einen viel geringeren PR bekommt, als sie eigentlich bekommen müßte, weil dieser link nicht repräsentativ ist.


Der Grüne Balken

Bis hier ging es darum, wie google intern den PR nutzt und ich hoffe gut begründet zu haben, warum google ihn auch weiterhin einsetzen wird. Dies hat in meinen Augen nicht viel mit dem grünen Balken zu tun. Ich würde es z.B. für wahrscheinlich halten, dass google zwei PRs hat, einen internen, der wie oben beschrieben optimiert ist und einen, der der SEO-Gemeinde zum Frass vorgeworfen wird. Oder alternativ, dass aus dem Orginal-PR wieder Faktoren herausgerechnet werden, so dass sich der interne PR signifikant von dem unterscheidet, was wir zu Gesicht bekommen.

Ob die Anzeige dieses PR verschwindet ist eine ganz andere Frage und hat nichts mit der internen Nutzung des PR zu tun. Es ist eher die Frage danach, ob es sich nicht nachteilig auf das Web auswirkt, da u.a. diese Anzeige mit zum linkverkauf etc. beiträgt.


Das Auslaufen des Patents

Auch hat das Auslaufen der Patent-Nutzungsrechte keine Auswirkungen, denn es wäre wohl das erste Mal, dass sich die Uni Stanford und der weltgrößte Konzern nicht auf Lizenzgebühren für ein von Konzernmitgliedern erfundenen Konzepts einigen können.


Was folgt?

Beispielsweise würde das aus SEO-Sicht bedeuten, dass es sinnvoll wäre auf Textlinks von Seiten zu setzen, die ebenfalls auch oft Text-links erhalten und wegzukommen, von dem nur an dem grünen Balken orientierten footer-links, aber wem sag ich das.
Sehr geehrter Herr SEO Guru, ich habe eine frage zu Ihren Backlink Tipps. Es ist nämlich nicht so einfach ein Raumschiff zu bauen um einen Backlink von der NASA zu bekommen... bitte antworten Sie auf meine Mails. Zitat von winman.de