Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Florida-Update: Sturm im Wasserglas?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
zapata
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 11.09.2003, 15:40
Wohnort: Hessen

Beitrag von zapata » 20.12.2003, 16:51

Das Florida-Update hat, angesichts der Vielzahl der Postings (1,2,3,4), eine wahre Lawine von Mutmassungen ausgelöst. Da jetzt (vorerst) alles vorüber ist, wäre es an der Zeit, die Mystik des Vorganges qualifiziert auszuräumen.

Optimizer (Hi!) hat es zuweilen versucht, seine Erfahrung, Kenntnislage und Beobachtungsgabe verdienen allerhöchsten Respekt.

Das Filtering basiert auf einen "Experimentellen Algorhythmus" von G, dessen Hintergründe, Eingeweihten schon längst klar sein müssten:
  • 1. Die keywordsreichen (und teilweise sinnlosen und langen) Domainnamen waren und sind nicht nur G ein Dorn im Auge, sondern auch jedem User. Beispiel: https://www.webdesign-mustermann-cheap- ... nkfurt.com. Welcher User möchte einen solchen Namen eintippen müssen ? Genauso sieht es G auch !!!
    Die Anhäufung eines unnatürlichen Anchortextes (Linktext: Cheap Webdesign Frankfurt), statt einer "normalen textuellen Verteilung" (Linktext1: Mustermann Webdesign / Linktext2: Webdesignbüro Franfurt, etc.) entspricht keinesfalls einem "normalen" Verlinkungsverhalten von Webmastern. Genauso sieht es G (mittlerweile) auch !!!
    Die übertriebene Übereinstimmung von Linktext und keywordreichen Domainnamen ist maschinell ganz leicht feststellbar und ebenfalls ein deutliches Anzeichen von übertriebener Anpreisung und leider auch vermehrt von Spam. Wie verhält sich ein Interessent, wenn er von einem Vertreter gebetmühlenartig, innerhalb von 5 Minuten den Staubsauger XYZ folgendermassen angepriesen bekommt: "Sie MÜSSEN den Staubsauger XYZ kaufen, denn der Staubsauger XYZ ist nicht nur der saugfähigste, sondern unser Staubsauger XYZ ist auch der haltbarste; im Übrigen ist der Staubsauger XYZ auch der Billigste...." - vollkommen unnatürlich... Keyword-Density auf die Spitze getrieben eben... Genauso sieht es G (mittlerweile) auch !!!
    G sucht nach reellem Content und nicht nach Google-Optimized Content. Dass bis dato die SERPs eine andere Sprache sprechen, ist etwas anderes und WIRD sich demnächst ändern: Googles Grundidee, war die eines freien UND informativen Web (Informational Web Structure). Die Kommerzialisierung des Web wird von G begrüsst, aber nicht das Ersetzen von informativen Inhalten durch übertriebene SEO: Welche Firma würde in einer Firmenbrochüre oder White Paper die Sprache benutzen, die SEOs ihren Kunden für den Webauftritt anraten ? (Bezüglich KW-Density, Repetitions, etc.). Genauso sieht es G (mittlerweile) auch !!!
  • Die Bedeutung des PR der Hauptdomain hinsichtlich der SERPs, wird ebenfalls sinken; ein hoher PR wird nur noch dazu nützlich sein, aud contentreiche Unterseiten PR zu vererben. Künftig werden vermehrt Unterseiten mit hoher thematischer Relevanz höher gewertet werden als keyword-optimierte Hauptdomains mit einem höheren PR. Warum ? Ganz einfach: in welchem (Fach)Buch stehen gleich auf der ersten Seite ALLE qualitätvollen Infos ? In gar keinem... So sieht es G (mttlerweile) auch !!!
Das Zauberwort der Zukunft lautet "Semantische Websuche"; und DAS ist eine Frage von Rechenleistung (Berechnung von "Logical Trees") und grenzt an dem Versuch des Einsatzes von "Artificial Intelligence" (AI). Wozu ? Ganz einfach: die Suchergebnisse und Verlinkungsrelevanz sind somit viel besser einem (verwandten) Themenbereich zuzuordnen; Beispiel Semantic Web: erkennt G auf einer Seite das KW "Finanzen und Anleihen" UND erkennt es deren logische Bedeutung, so kann G diese Site dem Bereich "Business", Unterkategorie "Financial" zuordnen. Wird der verlinkenden Seite der gleiche Themenbereich zugeordnet, handelt es sich um einen "qualified Link".

Dass dies keine Spekulation ist, beweist rudimentär das Stemming (einen primitive Art von AI).

G ändert momentan konsequent und systematisch seine Algorhythmik in Richtung AI und semantische Websuche. Warum ? Man will der erste sein, der z.B. einem Deutschen der nach dem Deutschen Begriff "Gesundheit" sucht, eine hochrelevante Seite aus dem Englischen präsentieren, nach der der Deutsche momentan mit "health" suchen müsste. Merke: G will eine Trennung zwischen Sprache und Themenrelevanz erreichen.

Was bedeutet dies konkret ?

1. G wird zukünftig "grosse Seiten" (300+) vermehrt besser positionieren; das hat zum einen mit dem Backlinking der vielen Seiten auf die Hauptdomain etwas zu tun, zum anderen ist der Algo dahingehend angepasst worden, dass Seiten mit vielen Sites ein deutlicher Beitrag in Richtung "informational increasing" sind... eben G's Ursprungsidee.

2. G wird zukünftig Unterseiten vermehrt besser positionieren (in Verhältnis zu Hauptdomains). Beispiel: Kommerzie**.net wird mit sehr vielen KWs vorne sein, da Unterseiten wie https://www.kommerzi**.net/Thema1.html mit einem PR von 2-3 höher eingestuft werden als eine optimierte Hauptdomain. Bitte nicht zu viel freuen Owner: Directory- oder Link Sites mit oft wechselnder Linkstruktur werden herabgestuft.

3. Die Bedeutung der Sites die in einem "Human reviewed" - Directory aufgelistet sind wird ERHEBLICH steigen, denn G sieht es fast als Garantie für NoSpam (fälschlicherweise manchmal...).

4. G KANN könnte schon lange mit JavaScript-basierten DWPs fertigwerden; entsprechende JS-Emulatoren und Auswertungsalgorhythmen sind hinreichend getestet. Problem: die Rechenleistung NUR HIERFÜR MÜSSTE SICH FAST VERDOPPELN !!! Bitte den Börsengang abwarten !!

5. Auch wenn G JavaScript-Links auslesen könnte, wird es dies zukünftig nicht (i.d.R.) tun. Warum ? Barrierefreies Web, etc.

6. Kommt demnächst...

Gruss an alle aus einem tollen Forum und einen schönen Sonntag !!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

firestarter
PostRank 8
PostRank 8
Beiträge: 954
Registriert: 26.05.2003, 13:52
Wohnort: Cairns

Beitrag von firestarter » 20.12.2003, 17:35

Interessant, aber in meinen Augen nicht richtig. Wenn Google hier wirklich etwas in dieser Art eingeführt hätte, warum betrifft es dann nur manche Keywords?

Ich habe 2 Seiten die nach dem selben Prinzip optimiert sind, und Ihre Links von den selben Seiten beziehen (beide bekommen Links von Themenfremden Seiten) warum ist eine abgestürzt und die andere hat sich sogar verbessert?

Gehe einmal auf googledance.seochat.com und suche auf.de nach einem deutschen Begriff dessen Seite während des Updates aus den deutschen Serps verschwunden ist. Du wirst sehen die sind noch da. Genauso sieht es aus wenn du auf www.google.de/ie suchst da sehen die Ergebnisse auch komplett anders aus.

Ich habe das Gefühl dass G sich hier wirklich Begriffe manuell ausfiltert um hier vermehrrt Adwords zu verkaufen.

Beispiel:

https://www.google.de/search?q=livecam& ... l=de&meta=

https://www.google.de/ie?q=livecam&hl=d ... 8&oe=UTF-8

In den normalen Serps erscheint bei der SUche nach "Livecam" keine Erotikseite bei www.google.de/ie seltsamer Weise schon. Dies waren die Serps vor dem Florida-Update.

Und ein User mit Ami oder Canada IP sieht die Serps noch immer so.

Das kann wohl kein Algo-Change sein, dies ist Manipulation. Und bei dem Begriff Livecam ist ein Adword richtig teuer. Wenn ich nach Livecam suche möchte ich doch wohl nicht die Livecam von Wien sehen, dann hätte ich ja Livecam Wien oder Livecam Vienna eingegebn.

Gruss Frank

zapata
PostRank 1
PostRank 1
Beiträge: 5
Registriert: 11.09.2003, 15:40
Wohnort: Hessen

Beitrag von zapata » 20.12.2003, 17:54

Interessant, aber in meinen Augen nicht richtig. Wenn Google hier wirklich etwas in dieser Art eingeführt hätte, warum betrifft es dann nur manche Keywords?
Bei einem "Experimentellen Algo" benutzt man nur MANCHE KWs --> eben ein Experiment !!
Das kann wohl kein Algo-Change sein, dies ist Manipulation.
Punkt 1: G manipuliert nicht...zumindest nicht SO billig...und schon gar nicht vor IPO. Punkt 2: eine LiveCam Seite ist aus G's Sicht contentarm --> da wird nur eine (visuelle) Dienstleistung gegen viel Geld offeriert. Warum sollte der Betreiber nicht ein wenig davon an G abgeben ? Punkt3: Eine Site die LiveCam Technologien beschreibt, würde nicht herabgestuft werden.

Grundsätzlich: Jeder Algo kennt Fehler und Ausnahmen. Auch dieser. G befasst sich damit die "Maschen" immer enger zu stricken. Auch wenn momentan noch zu viele Einzelfälle den Filter passieren, warten wir die nächsten 12-18 Monate ab. Verfolgen wir auch beim W3C aufmerksam die Diskussion über "semantic web" und hierzu notwendigen Standards. Diesbezüglich hat bei G die Zukunft längst begonnen.

Gruss