Seite 1 von 1

Florida-Update: Sturm im Wasserglas?

Verfasst: 20.12.2003, 16:51
von zapata
Das Florida-Update hat, angesichts der Vielzahl der Postings (1,2,3,4), eine wahre Lawine von Mutmassungen ausgelöst. Da jetzt (vorerst) alles vorüber ist, wäre es an der Zeit, die Mystik des Vorganges qualifiziert auszuräumen.

Optimizer (Hi!) hat es zuweilen versucht, seine Erfahrung, Kenntnislage und Beobachtungsgabe verdienen allerhöchsten Respekt.

Das Filtering basiert auf einen "Experimentellen Algorhythmus" von G, dessen Hintergründe, Eingeweihten schon längst klar sein müssten:
  • 1. Die keywordsreichen (und teilweise sinnlosen und langen) Domainnamen waren und sind nicht nur G ein Dorn im Auge, sondern auch jedem User. Beispiel: https://www.webdesign-mustermann-cheap- ... nkfurt.com. Welcher User möchte einen solchen Namen eintippen müssen ? Genauso sieht es G auch !!!
    Die Anhäufung eines unnatürlichen Anchortextes (Linktext: Cheap Webdesign Frankfurt), statt einer "normalen textuellen Verteilung" (Linktext1: Mustermann Webdesign / Linktext2: Webdesignbüro Franfurt, etc.) entspricht keinesfalls einem "normalen" Verlinkungsverhalten von Webmastern. Genauso sieht es G (mittlerweile) auch !!!
    Die übertriebene Übereinstimmung von Linktext und keywordreichen Domainnamen ist maschinell ganz leicht feststellbar und ebenfalls ein deutliches Anzeichen von übertriebener Anpreisung und leider auch vermehrt von Spam. Wie verhält sich ein Interessent, wenn er von einem Vertreter gebetmühlenartig, innerhalb von 5 Minuten den Staubsauger XYZ folgendermassen angepriesen bekommt: "Sie MÜSSEN den Staubsauger XYZ kaufen, denn der Staubsauger XYZ ist nicht nur der saugfähigste, sondern unser Staubsauger XYZ ist auch der haltbarste; im Übrigen ist der Staubsauger XYZ auch der Billigste...." - vollkommen unnatürlich... Keyword-Density auf die Spitze getrieben eben... Genauso sieht es G (mittlerweile) auch !!!
    G sucht nach reellem Content und nicht nach Google-Optimized Content. Dass bis dato die SERPs eine andere Sprache sprechen, ist etwas anderes und WIRD sich demnächst ändern: Googles Grundidee, war die eines freien UND informativen Web (Informational Web Structure). Die Kommerzialisierung des Web wird von G begrüsst, aber nicht das Ersetzen von informativen Inhalten durch übertriebene SEO: Welche Firma würde in einer Firmenbrochüre oder White Paper die Sprache benutzen, die SEOs ihren Kunden für den Webauftritt anraten ? (Bezüglich KW-Density, Repetitions, etc.). Genauso sieht es G (mittlerweile) auch !!!
  • Die Bedeutung des PR der Hauptdomain hinsichtlich der SERPs, wird ebenfalls sinken; ein hoher PR wird nur noch dazu nützlich sein, aud contentreiche Unterseiten PR zu vererben. Künftig werden vermehrt Unterseiten mit hoher thematischer Relevanz höher gewertet werden als keyword-optimierte Hauptdomains mit einem höheren PR. Warum ? Ganz einfach: in welchem (Fach)Buch stehen gleich auf der ersten Seite ALLE qualitätvollen Infos ? In gar keinem... So sieht es G (mttlerweile) auch !!!
Das Zauberwort der Zukunft lautet "Semantische Websuche"; und DAS ist eine Frage von Rechenleistung (Berechnung von "Logical Trees") und grenzt an dem Versuch des Einsatzes von "Artificial Intelligence" (AI). Wozu ? Ganz einfach: die Suchergebnisse und Verlinkungsrelevanz sind somit viel besser einem (verwandten) Themenbereich zuzuordnen; Beispiel Semantic Web: erkennt G auf einer Seite das KW "Finanzen und Anleihen" UND erkennt es deren logische Bedeutung, so kann G diese Site dem Bereich "Business", Unterkategorie "Financial" zuordnen. Wird der verlinkenden Seite der gleiche Themenbereich zugeordnet, handelt es sich um einen "qualified Link".

Dass dies keine Spekulation ist, beweist rudimentär das Stemming (einen primitive Art von AI).

G ändert momentan konsequent und systematisch seine Algorhythmik in Richtung AI und semantische Websuche. Warum ? Man will der erste sein, der z.B. einem Deutschen der nach dem Deutschen Begriff "Gesundheit" sucht, eine hochrelevante Seite aus dem Englischen präsentieren, nach der der Deutsche momentan mit "health" suchen müsste. Merke: G will eine Trennung zwischen Sprache und Themenrelevanz erreichen.

Was bedeutet dies konkret ?

1. G wird zukünftig "grosse Seiten" (300+) vermehrt besser positionieren; das hat zum einen mit dem Backlinking der vielen Seiten auf die Hauptdomain etwas zu tun, zum anderen ist der Algo dahingehend angepasst worden, dass Seiten mit vielen Sites ein deutlicher Beitrag in Richtung "informational increasing" sind... eben G's Ursprungsidee.

2. G wird zukünftig Unterseiten vermehrt besser positionieren (in Verhältnis zu Hauptdomains). Beispiel: Kommerzie**.net wird mit sehr vielen KWs vorne sein, da Unterseiten wie https://www.kommerzi**.net/Thema1.html mit einem PR von 2-3 höher eingestuft werden als eine optimierte Hauptdomain. Bitte nicht zu viel freuen Owner: Directory- oder Link Sites mit oft wechselnder Linkstruktur werden herabgestuft.

3. Die Bedeutung der Sites die in einem "Human reviewed" - Directory aufgelistet sind wird ERHEBLICH steigen, denn G sieht es fast als Garantie für NoSpam (fälschlicherweise manchmal...).

4. G KANN könnte schon lange mit JavaScript-basierten DWPs fertigwerden; entsprechende JS-Emulatoren und Auswertungsalgorhythmen sind hinreichend getestet. Problem: die Rechenleistung NUR HIERFÜR MÜSSTE SICH FAST VERDOPPELN !!! Bitte den Börsengang abwarten !!

5. Auch wenn G JavaScript-Links auslesen könnte, wird es dies zukünftig nicht (i.d.R.) tun. Warum ? Barrierefreies Web, etc.

6. Kommt demnächst...

Gruss an alle aus einem tollen Forum und einen schönen Sonntag !!

Verfasst:
von

Verfasst: 20.12.2003, 17:35
von firestarter
Interessant, aber in meinen Augen nicht richtig. Wenn Google hier wirklich etwas in dieser Art eingeführt hätte, warum betrifft es dann nur manche Keywords?

Ich habe 2 Seiten die nach dem selben Prinzip optimiert sind, und Ihre Links von den selben Seiten beziehen (beide bekommen Links von Themenfremden Seiten) warum ist eine abgestürzt und die andere hat sich sogar verbessert?

Gehe einmal auf googledance.seochat.com und suche auf.de nach einem deutschen Begriff dessen Seite während des Updates aus den deutschen Serps verschwunden ist. Du wirst sehen die sind noch da. Genauso sieht es aus wenn du auf www.google.de/ie suchst da sehen die Ergebnisse auch komplett anders aus.

Ich habe das Gefühl dass G sich hier wirklich Begriffe manuell ausfiltert um hier vermehrrt Adwords zu verkaufen.

Beispiel:

https://www.google.de/search?q=livecam& ... l=de&meta=

https://www.google.de/ie?q=livecam&hl=d ... 8&oe=UTF-8

In den normalen Serps erscheint bei der SUche nach "Livecam" keine Erotikseite bei www.google.de/ie seltsamer Weise schon. Dies waren die Serps vor dem Florida-Update.

Und ein User mit Ami oder Canada IP sieht die Serps noch immer so.

Das kann wohl kein Algo-Change sein, dies ist Manipulation. Und bei dem Begriff Livecam ist ein Adword richtig teuer. Wenn ich nach Livecam suche möchte ich doch wohl nicht die Livecam von Wien sehen, dann hätte ich ja Livecam Wien oder Livecam Vienna eingegebn.

Gruss Frank

Verfasst: 20.12.2003, 17:54
von zapata
Interessant, aber in meinen Augen nicht richtig. Wenn Google hier wirklich etwas in dieser Art eingeführt hätte, warum betrifft es dann nur manche Keywords?
Bei einem "Experimentellen Algo" benutzt man nur MANCHE KWs --> eben ein Experiment !!
Das kann wohl kein Algo-Change sein, dies ist Manipulation.
Punkt 1: G manipuliert nicht...zumindest nicht SO billig...und schon gar nicht vor IPO. Punkt 2: eine LiveCam Seite ist aus G's Sicht contentarm --> da wird nur eine (visuelle) Dienstleistung gegen viel Geld offeriert. Warum sollte der Betreiber nicht ein wenig davon an G abgeben ? Punkt3: Eine Site die LiveCam Technologien beschreibt, würde nicht herabgestuft werden.

Grundsätzlich: Jeder Algo kennt Fehler und Ausnahmen. Auch dieser. G befasst sich damit die "Maschen" immer enger zu stricken. Auch wenn momentan noch zu viele Einzelfälle den Filter passieren, warten wir die nächsten 12-18 Monate ab. Verfolgen wir auch beim W3C aufmerksam die Diskussion über "semantic web" und hierzu notwendigen Standards. Diesbezüglich hat bei G die Zukunft längst begonnen.

Gruss

Verfasst:
von

Verfasst: 21.12.2003, 10:36
von auer
Ich denke, daß die 'Vielzahl der Postings' etwas damit zu tun hat, daß die einen von Florida überhaupt nicht betroffen sind bzw. positive Veränderungen beobachten, wohingegen die anderen bsp. mehrere Domains oder Subdomain-Architekturen mit vielen Schlüsselwörtern verwenden, die zu demselben Inhalt führen und untereinander eben verlinkt sind. Diesen Punkt hat bereits Marissa Mayer in dem vor gut einer Woche zitierten Artikel angesprochen: 'Have a single domain with mini-sites within, rather than having lots of sites'.

Der von @zapata zitierte Artikel zum LocalRank (google-Patent von 2001) läuft darauf hinaus, daß die bisherigen Suchergebnisse nach Beziehungen untereinander betrachtet werden und daß die schwächeren der jeweils zueinander in Beziehung stehenden Seiten hiervon entfernt werden - dies sind die thematisch zusammengehörenden Gruppen. Interessant ist der Begriff der 'affilitated hosts': "Similar or affiliated hosts may be determined through a manual search or by an automated web search that compares the contents at different hosts", auch von solchen Mehrfachlistungen würden Seiten bei der Berechnung des LocalScore entfernt werden. @Mario hat dies ja bereits als Punkt 16 seiner Thesen vorgestellt - 'in den Listings tauchen statt die früheren Seiten, deren Linkpartner auf'. In meinem Bereich konnte ich diese Beobachtungen nicht machen, das Herumspielen mit Immobilien-Schlüsselwörtern ergab ein Beispiel, bei dem beim Wechsel von 'weltweit' zu 'deutsch' der thematisch irrelevante deutsche Linkpartner mit hohem PR die englische Domain ersetzte. Damit sind die Vermutungen aus dem Florida-Thread bezüglich der Identifikation möglicher Gruppen in bereits patentierte Algorithmen gegossen. Der tatsächliche Rangplatz wird dann (grob vereinfacht) durch die Multiplikation des LocalScore mit dem OldScore erreicht, hinzu kommen Quotienten des MaxLocalScore und des MaxOldScore [genau: NewScore(x) = (a+LocalScore(x)/MaxLS) (b+OldScore(x)/MaxOS), a, b Konstanten >= 1]

Ich verwende google immer wieder als eine Art Lexikon. Wenn ich also den 'neuen Begriff' Livecam eingebe, um mich darüber zu informieren, was das ist: Weshalb soll ich dann hundert Sexseiten bekommen? Und bevor ich nicht weiß, was das für ein Ding ist, komme ich auch nicht auf die Idee, nach 'LiveCam Wien' zu suchen - die erste Livecam beobachtete m.W. nach eine Kaffeemaschine in einer Universität.

Suche nach Livecam: 2.30 Millionen
Livecam + Sex: 1.92 Millionen

Für diese 1.9 Millionen Seiten ist die andere Thematik höher einzuschätzen, also muß jeder, der nach Livecam im Zusammenhang mit Sex sucht, nach der Kombination suchen. Bei den alten Serps hätte man nach Livecam -Sex suchen müssen, um sich überhaupt erst einmal darüber informieren zu können, daß eine Livecam keine neue sexuelle Mode oder Krankheit ist.

------------
Gruß, Jürgen Auer