Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Florida-Update: Sturm im Wasserglas?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
zapata
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 11.09.2003, 15:40
Wohnort: Hessen

Beitrag von zapata » 20.12.2003, 16:51

Das Florida-Update hat, angesichts der Vielzahl der Postings (1,2,3,4), eine wahre Lawine von Mutmassungen ausgelöst. Da jetzt (vorerst) alles vorüber ist, wäre es an der Zeit, die Mystik des Vorganges qualifiziert auszuräumen.

Optimizer (Hi!) hat es zuweilen versucht, seine Erfahrung, Kenntnislage und Beobachtungsgabe verdienen allerhöchsten Respekt.

Das Filtering basiert auf einen "Experimentellen Algorhythmus" von G, dessen Hintergründe, Eingeweihten schon längst klar sein müssten:
  • 1. Die keywordsreichen (und teilweise sinnlosen und langen) Domainnamen waren und sind nicht nur G ein Dorn im Auge, sondern auch jedem User. Beispiel: https://www.webdesign-mustermann-cheap- ... nkfurt.com. Welcher User möchte einen solchen Namen eintippen müssen ? Genauso sieht es G auch !!!
    Die Anhäufung eines unnatürlichen Anchortextes (Linktext: Cheap Webdesign Frankfurt), statt einer "normalen textuellen Verteilung" (Linktext1: Mustermann Webdesign / Linktext2: Webdesignbüro Franfurt, etc.) entspricht keinesfalls einem "normalen" Verlinkungsverhalten von Webmastern. Genauso sieht es G (mittlerweile) auch !!!
    Die übertriebene Übereinstimmung von Linktext und keywordreichen Domainnamen ist maschinell ganz leicht feststellbar und ebenfalls ein deutliches Anzeichen von übertriebener Anpreisung und leider auch vermehrt von Spam. Wie verhält sich ein Interessent, wenn er von einem Vertreter gebetmühlenartig, innerhalb von 5 Minuten den Staubsauger XYZ folgendermassen angepriesen bekommt: "Sie MÜSSEN den Staubsauger XYZ kaufen, denn der Staubsauger XYZ ist nicht nur der saugfähigste, sondern unser Staubsauger XYZ ist auch der haltbarste; im Übrigen ist der Staubsauger XYZ auch der Billigste...." - vollkommen unnatürlich... Keyword-Density auf die Spitze getrieben eben... Genauso sieht es G (mittlerweile) auch !!!
    G sucht nach reellem Content und nicht nach Google-Optimized Content. Dass bis dato die SERPs eine andere Sprache sprechen, ist etwas anderes und WIRD sich demnächst ändern: Googles Grundidee, war die eines freien UND informativen Web (Informational Web Structure). Die Kommerzialisierung des Web wird von G begrüsst, aber nicht das Ersetzen von informativen Inhalten durch übertriebene SEO: Welche Firma würde in einer Firmenbrochüre oder White Paper die Sprache benutzen, die SEOs ihren Kunden für den Webauftritt anraten ? (Bezüglich KW-Density, Repetitions, etc.). Genauso sieht es G (mittlerweile) auch !!!
  • Die Bedeutung des PR der Hauptdomain hinsichtlich der SERPs, wird ebenfalls sinken; ein hoher PR wird nur noch dazu nützlich sein, aud contentreiche Unterseiten PR zu vererben. Künftig werden vermehrt Unterseiten mit hoher thematischer Relevanz höher gewertet werden als keyword-optimierte Hauptdomains mit einem höheren PR. Warum ? Ganz einfach: in welchem (Fach)Buch stehen gleich auf der ersten Seite ALLE qualitätvollen Infos ? In gar keinem... So sieht es G (mttlerweile) auch !!!
Das Zauberwort der Zukunft lautet "Semantische Websuche"; und DAS ist eine Frage von Rechenleistung (Berechnung von "Logical Trees") und grenzt an dem Versuch des Einsatzes von "Artificial Intelligence" (AI). Wozu ? Ganz einfach: die Suchergebnisse und Verlinkungsrelevanz sind somit viel besser einem (verwandten) Themenbereich zuzuordnen; Beispiel Semantic Web: erkennt G auf einer Seite das KW "Finanzen und Anleihen" UND erkennt es deren logische Bedeutung, so kann G diese Site dem Bereich "Business", Unterkategorie "Financial" zuordnen. Wird der verlinkenden Seite der gleiche Themenbereich zugeordnet, handelt es sich um einen "qualified Link".

Dass dies keine Spekulation ist, beweist rudimentär das Stemming (einen primitive Art von AI).

G ändert momentan konsequent und systematisch seine Algorhythmik in Richtung AI und semantische Websuche. Warum ? Man will der erste sein, der z.B. einem Deutschen der nach dem Deutschen Begriff "Gesundheit" sucht, eine hochrelevante Seite aus dem Englischen präsentieren, nach der der Deutsche momentan mit "health" suchen müsste. Merke: G will eine Trennung zwischen Sprache und Themenrelevanz erreichen.

Was bedeutet dies konkret ?

1. G wird zukünftig "grosse Seiten" (300+) vermehrt besser positionieren; das hat zum einen mit dem Backlinking der vielen Seiten auf die Hauptdomain etwas zu tun, zum anderen ist der Algo dahingehend angepasst worden, dass Seiten mit vielen Sites ein deutlicher Beitrag in Richtung "informational increasing" sind... eben G's Ursprungsidee.

2. G wird zukünftig Unterseiten vermehrt besser positionieren (in Verhältnis zu Hauptdomains). Beispiel: Kommerzie**.net wird mit sehr vielen KWs vorne sein, da Unterseiten wie https://www.kommerzi**.net/Thema1.html mit einem PR von 2-3 höher eingestuft werden als eine optimierte Hauptdomain. Bitte nicht zu viel freuen Owner: Directory- oder Link Sites mit oft wechselnder Linkstruktur werden herabgestuft.

3. Die Bedeutung der Sites die in einem "Human reviewed" - Directory aufgelistet sind wird ERHEBLICH steigen, denn G sieht es fast als Garantie für NoSpam (fälschlicherweise manchmal...).

4. G KANN könnte schon lange mit JavaScript-basierten DWPs fertigwerden; entsprechende JS-Emulatoren und Auswertungsalgorhythmen sind hinreichend getestet. Problem: die Rechenleistung NUR HIERFÜR MÜSSTE SICH FAST VERDOPPELN !!! Bitte den Börsengang abwarten !!

5. Auch wenn G JavaScript-Links auslesen könnte, wird es dies zukünftig nicht (i.d.R.) tun. Warum ? Barrierefreies Web, etc.

6. Kommt demnächst...

Gruss an alle aus einem tollen Forum und einen schönen Sonntag !!