Klar, ist letztendlich immer das gesamte Dokument als Textbewertung entscheidend.
Google wurde als Keyword-Adressbuch aufgebaut mit der Aufgabe, Html-Seiten zu erkennen und zu entschlüsseln.
Html wurde von Mathematikern bei Cern nach dem chronologischen Grundaufbau eines Exposees entwickelt.
Quelltext, ( Metas) mit Titel, Beschreibung, u.s.w.
Sichtbarer Text mit klaren Inhalten, nach Exposee-Art mit Bildern und Farben sortiert.
Das wichtige mit Überschriften vorne, und da unwichtige hinten.
Wichtige Randbemerkungen wieder als Blogs, bzw. als Kleinartikel mit Überschriften und Beschreibung zusammengefasst.
Dafür waren <h1> bis <H5>, und Fettschrift als Sondermarkierung vorgesehen.
Der offensichtlich sachlich erzogene Mr. Pages entwickelte einen Algorithmus, der all diesen Begebenheiten Rechnung trug.
Aber grundsätzlich kann nur nach der Menge und Folge der Schlüsselworte entschieden werden.
Das genaue Maß wurde wegen der Spammer auf eine variierende Mischung, die offensichlich alle 3 bis 6 Monate verstellt wird, sensible gekürzt,
aber das Grunderkennen ist nach wie vor nur über eine gewisse Keyworddichte und Keywordreihenfolge möglich.
Der Schlüssel liegt mit leichten Schwankungen irgendwo zwischen Tolstoy und Produktkatalog.
Google ist also kein Gott, sondern eine progammierte Maschine, die klaren Angaben folgt.
Die Mitarbeiter von Google sind offensichtlich angewiesen über die eigenen Foren und deren teilweise besonders nichtwissenden Naiven
unsinnige Behauptungen gegen die Algorithmus-Entschlüssler in den Umlauf zu bringen.
Die Selbstsicherheit der Dummköpfe verursacht bei mir, immer eine überraschende Erfrischung.