Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Pagerank vereben

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Nety
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 26.09.2005, 18:23
Wohnort: München

Beitrag von Nety » 08.10.2005, 16:14

Also dann hilft nur eins warten, warten,daumendrücken,hoffen,beten.....
:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: :o

Erfolg hat nur der, der während er auf den Erfolg wartet, auch etwas tut.

also nicht warten sondern verlinken verlinken verlinken ......

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

ckl
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 05.08.2005, 17:55

Beitrag von ckl » 08.10.2005, 16:27

Schon klar, habe ich auch gemacht und werde es weiterhin machen. Nur bin ich jetzt mal gespannt wie Google meine Arbeit bewertet/belohnt :P

Nety
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 26.09.2005, 18:23
Wohnort: München

Beitrag von Nety » 09.10.2005, 11:06

Wie lange muß ein Link gesetzt sein bis :-? er PageRank vererbt ??? :-?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


willy
PostRank 4
PostRank 4
Beiträge: 161
Registriert: 20.08.2005, 14:47

Beitrag von willy » 09.10.2005, 20:06

Dusti hat geschrieben:Naja, wer die Kapazitäten hat soviele Seiten auf die Art zu durchsuchen und zu crawlen wie Google das macht, der schmunzelt vermutlich über die paar Berechnungen pro Seite.
Ich würde sogar schätzen (nicht wissen!), dass das Interpretieren von grösseren Seiten wesentlich mehr Rechenpower kostet als ein paar Matrizenrechnungen pro Seite.
Es sind nicht mal "ein paar Matrizenrechnungen pro Seite", sondern im wesentlichen ein paar Divisionen und ein paar tatsächlich vernachlässigbare weitere Operationen. Das Problem das ich sehe, ist vielmehr die ständige Änderung der Links. Um überhaupt erkennen zu können, ob der Algo konvergiert, müssen die Links zu einem bestimmten Zeitpunkt "eingefroren" werden. Zeitnah sollten möglichst alle Seiten (auch die mit PR0, die normalerweise eher selten besucht werden) hinsichtlich der Links ausgewertet werden. Dies ist die eigentliche Herausforderung :roll:

Außerdem hat google ja noch anderes zu tun als ein PR-update zu machen. Das letzte Update der Bildersuche hat auch reichlich lange gedauert und spricht nicht gerade für satte Rechenpower :wink:

Grüße, Willy

Dusti
PostRank 1
PostRank 1
Beiträge: 25
Registriert: 29.08.2005, 06:46

Beitrag von Dusti » 09.10.2005, 23:09

Willy hat geschrieben:Eine ständige Aktualisierung kann ich mir nicht vorstellen, da die PageRank Berechnung iterativ ist und erhebliche Kapazitäten erfordert (die ich google trotz des exorbitanten Börsenwertes nicht zutraue ).
Hier schriebst du, dass Du Dir das nicht vorstellen kannst weil die Rechen-Kapazitäten fehlen.

Und nun kommt das hier:
Willy hat geschrieben:Es sind nicht mal "ein paar Matrizenrechnungen pro Seite", sondern im wesentlichen ein paar Divisionen und ein paar tatsächlich vernachlässigbare weitere Operationen.
Also erst werden erhebliche Rechenkapazitäten gebraucht, und dann sind sie auf einmal ein Klacks?

Um überhaupt erkennen zu können, ob der Algo konvergiert, müssen die Links zu einem bestimmten Zeitpunkt "eingefroren" werden.
Warum denn das? Ob die zu berechnenden PRs zu einem stabilen Wert konvergieren hängt von der Anzahl der Iterationen ab, nicht von der Zahl der bekannten oder unbekannten Links.
Oder reden wir hier vielleicht wieder aneinander vorbei?

Zeitnah sollten möglichst alle Seiten (auch die mit PR0, die normalerweise eher selten besucht werden) hinsichtlich der Links ausgewertet werden. Dies ist die eigentliche Herausforderung
Naja, aber das Problem existiert immer, ob der PR nun einmal am Tag oder einmal im Jahr berechnet werden würde. Links die Google noch nicht kennt, oder von dessen Entfernung er noch nichts mitbekommen hat gibt es immer.

willy
PostRank 4
PostRank 4
Beiträge: 161
Registriert: 20.08.2005, 14:47

Beitrag von willy » 10.10.2005, 10:13

Dusti hat geschrieben:Also erst werden erhebliche Rechenkapazitäten gebraucht, und dann sind sie auf einmal ein Klacks?
...
Oder reden wir hier vielleicht wieder aneinander vorbei?
Scheint so. :roll: Ich hatte ursprünglich nur "Kapazitäten" und nicht "Rechenkapazitäten" geschrieben, obwohl das für einen Computer (bewußt nicht Rechner :D ) nicht wirklich einen Unterschied macht, da sowohl das Spidern als auch das Berechnen Operationen mit Nullen und Einsen sind.

Trotzdem: Wenn sich die Anzahl der Links während der Iteration ändert, kann kein stabiler Wert erhalten werden. Änderungen während der Iteration würden aber zwangsläufig auftreten, wenn die Berechnungen "nebenbei" bei einem Website-Besuch nur für die gerade besuchte Seite gemacht würden. Und eine komplette Berechnung der gesamten Matrix mit ca. 10.000.000.000 Seiten nach jedem einzelnen Seitenbesuch kann man wohl getrost ausschließen.

Grüße, Willy

Dusti
PostRank 1
PostRank 1
Beiträge: 25
Registriert: 29.08.2005, 06:46

Beitrag von Dusti » 10.10.2005, 11:44

Ich hatte ursprünglich nur "Kapazitäten" und nicht "Rechenkapazitäten" geschrieben
Ok, dann kam das Missverständnis wohl daher, weil Du Dich dabei auf die Iterationen des PR-Algos bezogen hattest. Und da das mehr oder weniger reine "Rechnerei" ist, wenn Google alle Daten gesammelt hat, klang es für mich so, als würdest Du Dich nur auf die für die PR-Berechnung nötigen Rechenkapazitäten beziehen.
Wenn man den Rechenaufwand irgendwie pro Seite ausdrücken will (also den kompletten, mit allem was Google sonst noch so macht), dann macht meiner Meinung nach die PR-Berechnung in Relation zu allem anderen was Google pro Seite an "Rechenaufwand" hat nicht viel aus.
Ok, dann haben wir da wohl aneinander vorbeigeredet.

Trotzdem: Wenn sich die Anzahl der Links während der Iteration ändert, kann kein stabiler Wert erhalten werden. Änderungen während der Iteration würden aber zwangsläufig auftreten, wenn die Berechnungen "nebenbei" bei einem Website-Besuch nur für die gerade besuchte Seite gemacht würden.
Nein, das meinte ich nicht, dass Google das bei jedem Besuch der Seite macht. Das wäre natürlich quatsch, da bin ich derselben Meinung.
Aber das Problem, dass Google niemals einen wirklich aktuelles Gesamtabbild des gesamten Internets (und aller Links) hat, gibt es so oder so, egal wie oft die den PR berechnen lassen. Deshalb überzeugt mich das nicht als Grund, dass die den PR nicht öfters intern berechnen als sie ihn exportieren.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag