::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::

Erfolg hat nur der, der während er auf den Erfolg wartet, auch etwas tut.
also nicht warten sondern verlinken verlinken verlinken ......
Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Es sind nicht mal "ein paar Matrizenrechnungen pro Seite", sondern im wesentlichen ein paar Divisionen und ein paar tatsächlich vernachlässigbare weitere Operationen. Das Problem das ich sehe, ist vielmehr die ständige Änderung der Links. Um überhaupt erkennen zu können, ob der Algo konvergiert, müssen die Links zu einem bestimmten Zeitpunkt "eingefroren" werden. Zeitnah sollten möglichst alle Seiten (auch die mit PR0, die normalerweise eher selten besucht werden) hinsichtlich der Links ausgewertet werden. Dies ist die eigentliche HerausforderungDusti hat geschrieben:Naja, wer die Kapazitäten hat soviele Seiten auf die Art zu durchsuchen und zu crawlen wie Google das macht, der schmunzelt vermutlich über die paar Berechnungen pro Seite.
Ich würde sogar schätzen (nicht wissen!), dass das Interpretieren von grösseren Seiten wesentlich mehr Rechenpower kostet als ein paar Matrizenrechnungen pro Seite.
Hier schriebst du, dass Du Dir das nicht vorstellen kannst weil die Rechen-Kapazitäten fehlen.Willy hat geschrieben:Eine ständige Aktualisierung kann ich mir nicht vorstellen, da die PageRank Berechnung iterativ ist und erhebliche Kapazitäten erfordert (die ich google trotz des exorbitanten Börsenwertes nicht zutraue ).
Also erst werden erhebliche Rechenkapazitäten gebraucht, und dann sind sie auf einmal ein Klacks?Willy hat geschrieben:Es sind nicht mal "ein paar Matrizenrechnungen pro Seite", sondern im wesentlichen ein paar Divisionen und ein paar tatsächlich vernachlässigbare weitere Operationen.
Warum denn das? Ob die zu berechnenden PRs zu einem stabilen Wert konvergieren hängt von der Anzahl der Iterationen ab, nicht von der Zahl der bekannten oder unbekannten Links.Um überhaupt erkennen zu können, ob der Algo konvergiert, müssen die Links zu einem bestimmten Zeitpunkt "eingefroren" werden.
Naja, aber das Problem existiert immer, ob der PR nun einmal am Tag oder einmal im Jahr berechnet werden würde. Links die Google noch nicht kennt, oder von dessen Entfernung er noch nichts mitbekommen hat gibt es immer.Zeitnah sollten möglichst alle Seiten (auch die mit PR0, die normalerweise eher selten besucht werden) hinsichtlich der Links ausgewertet werden. Dies ist die eigentliche Herausforderung
Scheint so.Dusti hat geschrieben:Also erst werden erhebliche Rechenkapazitäten gebraucht, und dann sind sie auf einmal ein Klacks?
...
Oder reden wir hier vielleicht wieder aneinander vorbei?
Ok, dann kam das Missverständnis wohl daher, weil Du Dich dabei auf die Iterationen des PR-Algos bezogen hattest. Und da das mehr oder weniger reine "Rechnerei" ist, wenn Google alle Daten gesammelt hat, klang es für mich so, als würdest Du Dich nur auf die für die PR-Berechnung nötigen Rechenkapazitäten beziehen.Ich hatte ursprünglich nur "Kapazitäten" und nicht "Rechenkapazitäten" geschrieben
Nein, das meinte ich nicht, dass Google das bei jedem Besuch der Seite macht. Das wäre natürlich quatsch, da bin ich derselben Meinung.Trotzdem: Wenn sich die Anzahl der Links während der Iteration ändert, kann kein stabiler Wert erhalten werden. Änderungen während der Iteration würden aber zwangsläufig auftreten, wenn die Berechnungen "nebenbei" bei einem Website-Besuch nur für die gerade besuchte Seite gemacht würden.