Seite 1 von 1

Neues Google System

Verfasst: 28.01.2004, 12:50
von Ice Man
gerade woanders gelesen, was haltet Ihr davon ?
hier die neue formel von google aus den staaten.
Old Google Ranking Formula = {(1-d)+a (RS)} * {(1-e)+b (PR * fb)}

New Google Ranking Formula = {(1-d)+a (RS)} * {(1-e)+b (PR * fb)} * {(1-f)+c (LS)}

Where:

RS = RelevanceScore: (Score based on keywords appearing in Title, Meta tags, Headlines, Body text, URL, Alt text, Title attribute, anchor text etc. of your site)

PR = PageRank: (Score based on number and PR value of pages linking to your site. Original formula is PR (A) = (1-d) + d (PR (t1)/C (t1) + ... + PR (tn)/C (tn)), where PR of page ‘A’ is the sum of the PR of each page linking to it divided by the number of outgoing links on each of those pages. ‘d’ is a dampening factor believed to be equal to 0.15)

LS = LocalScore: (Score computed from expert documents. Has variables and different values for search term appearing in title (16), headline (6), anchor text (1), search term density etc. Figures in parenthesis are the original values, which may have been changed by Google)

a, b, c = Tweak Weight Controls: (available to Google for fine-tuning the results)

d, e, f = Dampener Controls: (available to Google for fine-tuning the results. We believe that the value of ‘f’ is currently set at zero.)

fb = FactorBase: (The PageRank scale of 1 to 10 on Google bar is not linier but an exponential/logarithmic one. As per our internal analysis, we believe that it is a base ‘close to’ 8. This means that PR5 is 8 times more in value than PR4. As such, a PR8 website has a value 4000 times more than a PR4 website. This factor somehow needs to be built into the algo formula. We have therefore taken a fb value to accommodate this factor)

RelevanceScore = 20%, PageRank = 40%, LocalScore = 40%

Where:

RS is the translation of all SEO efforts
PR is the translation of Link-building efforts
LS is the translation of links from the expert documents
Irgenbwie Hohe Mathematik oder ?

Kann mal jemdand die letzten 3 Begriffe gut auf Deutsch erklären ?
Ok PR muss nicht sein :D

Oops: Quelle https://www.suchmaschinentricks.de/foru ... =1&stm=150

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 28.01.2004, 12:55
von derExperte
das sieht ja sehr interessant aus!!!

Ich habs mal im Schnelldurchgang verschlungen und überlege noch ein wenig. Hört sich aber alles in allem nach einem logischen Algorithmur für eine Suchmaschine an. (natürlich in sehr vereinfachter Form)

Wo hast Du das denn gelesen? Gibts da noch mehr davon? Oder noch besser, auch ne Disskussion drüber?

(Ich liebe Quellenangaben doch so!)

Verfasst: 28.01.2004, 12:59
von Ice Man
habs gemerkt und Link oben eingefügt :)

Verfasst:
von

Verfasst: 28.01.2004, 13:01
von derExperte
wunderbar :-)

dann lass mich mal noch ein bisschen überlegen und nachlesen, dann kann ich auch mal meine Meinung bzw. Erläuterung hierzu zum besten geben.

Verfasst: 28.01.2004, 14:47
von killerboy1
Hi,
also das ist aus eine Artikel von seorank und der stammt vom 19. Dezember (Quelle: https://www.seorank.com/analysis-of-hil ... orithm.htm ) Es ist der Hilltop Algo...

Verfasst: 28.01.2004, 15:01
von auer
Das ist doch nichts neues. Auf diese Zusammenhänge habe ich bereits am 16.12 hier hingewiesen. Dort muß man bloß OldScore durch das ersetzen, was oben etwas ausführlicher als 'Old Google Ranking Formula' notiert ist - eine Kombination aus interner Seitenoptimierung und dem PR. zapata hat dort auch den Originalartikel angegeben, nämlich ein US-Patent von Bharat / google von 2001 - die Patentbeschreibung ist hier zugänglich.

-----------
Gruß, Jürgen Auer

Verfasst: 28.01.2004, 18:34
von tron
Hat mit "Austin" imho nix zu tun. Es handelt dabei um einen Filter.

Verfasst: 29.01.2004, 11:18
von schaulmeier

Verfasst: 29.01.2004, 14:59
von bull
find ich plausibel. Die Frage, was nun genau "expert documents" sind wird m.E. aber nicht klar beantwortet, oder kann einer ein Beispiel geben? 8)

Verfasst: 29.01.2004, 15:28
von schaulmeier
ich bin ja nun kein profi-web-arbeiter sondern guck nur nebenbei auf meine positionen

ich hab am 26. meine postitionen mit meinem keywordsatz gecheckt und gestern abend nochmal - es gibt bei einigen keyworten (einzelne, aber auch mehrword-phrasen) erhebliche veränderungen der positionen.

wenn das stimmt, was in dem artikel steht, dann deutet es darauf hin, dass der algorithmus für themenbasiertes ranking beim lernen ist.
und die beobachteten kopplungen an wichtige Adsense begriffe wäre insofern auch plausibel, da sich dort das system gut justieren lässt.

unrelevant kann in ich serps auf meinem gebiet jedenfalls nicht finden, auch wenn mich das eine oder andere ergebnis bezüglich meiner eigenen position nicht zufrieden stellt. - die gefunden seiten sind allemal informativ.

Verfasst: 29.01.2004, 15:54
von auer
Wesentlich scheinen mir die folgenden Punkte zu sein:

1. google hat - als einzigste Suma - eine Mehr-Portal-Strategie: google für Informationen, froogle für Produkte, news für News, directory für Kataloge. Die Aufgabe für das 'Standard-google' besteht also nicht darin, anderen Personen einen Verdienst zu ermöglichen, sondern dem Nutzer möglichst umfangreiche und vielfältige Informationen zur Verfügung zu stellen. Daß sich dies in den letzten Jahren anders entwickelt hat, daß eine ganze SEO-Industrie und ein PR-Handel entstanden ist und daß viele Serps nur mit Domains zum Verkaufen zugepflastert waren, war problematisch. Inzwischen scheint google das Know-How entwickelt zu haben, dies zu ändern und setzt dieses Wissen seit November schrittweise um.

2. Der 'alte PR' basierte auf einem 'random walk' - der Leser wählt zufällig einen Link aus und liest dort weiter. Diese Gleichgewichtung verschiedenster Links führt zu den bekannten PR-Problemen / Linkspamming / bombing, um die eigene Domain zu pushen. Inzwischen sagt sich google: '... searchers are not taking a random walk. Searchers are looking for information for a specific topic' (Seite 5) und ergänzt deshalb den alten PR durch den 'topic sensitive page rank', das ist im wesentlichen die von @iceman genannte Formel.

3. Beispiel: Ein ernstzunehmender Text zu Xml bezieht sich in irgendeiner Form auf https://www.w3.org/TR/2000/REC-xml-20001006 oder eine der umliegenden Adressen (expert documents). Linke ich klassisch (im letzten Sommer) mehrfach auf solche Dokumente, verschlechtert dies den Gesamt-PR meiner Domain und führt zur Abwertung / seltenerem Spidern. Eine Domain ohne ausgehende Links ist jedoch eine Sackgasse, für den an Informationen interessierten Leser sind solche weiterführenden Hinweise sinnvoll. Also dürfen Links aus einer Art Online-Xml-Lehrbuch (= 'topic') auf andere Xml-Quellen zumindest nicht zur Abwertung dieser Domain führen. Die Technik, solche Topics zu identifizieren, die nur wenig mit reinen Keywords zu tun haben, hat sich google vor etwa einem Jahr eingekauft ('CIRCA') und verwendet solche Dinge, um bei den News gemeinsame Themen zu identifizieren sowie - bei Adsense - passende Anzeigen anzuzeigen. Nun fließen diese Techniken auch in die 'große Version' ein.

----------
Gruß, Jürgen Auer

Verfasst: 29.01.2004, 16:20
von neuer
Also ich habe ja Froogle noch nie so richtig benutzt und habe unter meiner Kombi jetzt mal gesucht.

Ergebnis:

Die ersten 11 (elf) Seite sind zu 99% vom gleichen Anbieter mit der gleichen URL, nur der Text ist jedesmal anders. Oder soll das so sein ? Oder stehe ich jetzt auf dem Schlauch ...

Wozu soll das gut sein ?