Optimizer (Hi!) hat es zuweilen versucht, seine Erfahrung, Kenntnislage und Beobachtungsgabe verdienen allerhöchsten Respekt.
Das Filtering basiert auf einen "Experimentellen Algorhythmus" von G, dessen Hintergründe, Eingeweihten schon längst klar sein müssten:
- 1. Die keywordsreichen (und teilweise sinnlosen und langen) Domainnamen waren und sind nicht nur G ein Dorn im Auge, sondern auch jedem User. Beispiel: https://www.webdesign-mustermann-cheap- ... nkfurt.com. Welcher User möchte einen solchen Namen eintippen müssen ? Genauso sieht es G auch !!!
Die Anhäufung eines unnatürlichen Anchortextes (Linktext: Cheap Webdesign Frankfurt), statt einer "normalen textuellen Verteilung" (Linktext1: Mustermann Webdesign / Linktext2: Webdesignbüro Franfurt, etc.) entspricht keinesfalls einem "normalen" Verlinkungsverhalten von Webmastern. Genauso sieht es G (mittlerweile) auch !!!
Die übertriebene Übereinstimmung von Linktext und keywordreichen Domainnamen ist maschinell ganz leicht feststellbar und ebenfalls ein deutliches Anzeichen von übertriebener Anpreisung und leider auch vermehrt von Spam. Wie verhält sich ein Interessent, wenn er von einem Vertreter gebetmühlenartig, innerhalb von 5 Minuten den Staubsauger XYZ folgendermassen angepriesen bekommt: "Sie MÜSSEN den Staubsauger XYZ kaufen, denn der Staubsauger XYZ ist nicht nur der saugfähigste, sondern unser Staubsauger XYZ ist auch der haltbarste; im Übrigen ist der Staubsauger XYZ auch der Billigste...." - vollkommen unnatürlich... Keyword-Density auf die Spitze getrieben eben... Genauso sieht es G (mittlerweile) auch !!!
G sucht nach reellem Content und nicht nach Google-Optimized Content. Dass bis dato die SERPs eine andere Sprache sprechen, ist etwas anderes und WIRD sich demnächst ändern: Googles Grundidee, war die eines freien UND informativen Web (Informational Web Structure). Die Kommerzialisierung des Web wird von G begrüsst, aber nicht das Ersetzen von informativen Inhalten durch übertriebene SEO: Welche Firma würde in einer Firmenbrochüre oder White Paper die Sprache benutzen, die SEOs ihren Kunden für den Webauftritt anraten ? (Bezüglich KW-Density, Repetitions, etc.). Genauso sieht es G (mittlerweile) auch !!!
- Der PR als "Alleinstellungsmerkmal" von G wird zukünftig bestehen bleiben. Er wird allerdings durch den LocalRank (LR) verfeinert werdenverfeinert werden.
- Die Bedeutung des PR der Hauptdomain hinsichtlich der SERPs, wird ebenfalls sinken; ein hoher PR wird nur noch dazu nützlich sein, aud contentreiche Unterseiten PR zu vererben. Künftig werden vermehrt Unterseiten mit hoher thematischer Relevanz höher gewertet werden als keyword-optimierte Hauptdomains mit einem höheren PR. Warum ? Ganz einfach: in welchem (Fach)Buch stehen gleich auf der ersten Seite ALLE qualitätvollen Infos ? In gar keinem... So sieht es G (mttlerweile) auch !!!
Dass dies keine Spekulation ist, beweist rudimentär das Stemming (einen primitive Art von AI).
G ändert momentan konsequent und systematisch seine Algorhythmik in Richtung AI und semantische Websuche. Warum ? Man will der erste sein, der z.B. einem Deutschen der nach dem Deutschen Begriff "Gesundheit" sucht, eine hochrelevante Seite aus dem Englischen präsentieren, nach der der Deutsche momentan mit "health" suchen müsste. Merke: G will eine Trennung zwischen Sprache und Themenrelevanz erreichen.
Was bedeutet dies konkret ?
1. G wird zukünftig "grosse Seiten" (300+) vermehrt besser positionieren; das hat zum einen mit dem Backlinking der vielen Seiten auf die Hauptdomain etwas zu tun, zum anderen ist der Algo dahingehend angepasst worden, dass Seiten mit vielen Sites ein deutlicher Beitrag in Richtung "informational increasing" sind... eben G's Ursprungsidee.
2. G wird zukünftig Unterseiten vermehrt besser positionieren (in Verhältnis zu Hauptdomains). Beispiel: Kommerzie**.net wird mit sehr vielen KWs vorne sein, da Unterseiten wie https://www.kommerzi**.net/Thema1.html mit einem PR von 2-3 höher eingestuft werden als eine optimierte Hauptdomain. Bitte nicht zu viel freuen Owner: Directory- oder Link Sites mit oft wechselnder Linkstruktur werden herabgestuft.
3. Die Bedeutung der Sites die in einem "Human reviewed" - Directory aufgelistet sind wird ERHEBLICH steigen, denn G sieht es fast als Garantie für NoSpam (fälschlicherweise manchmal...).
4. G KANN könnte schon lange mit JavaScript-basierten DWPs fertigwerden; entsprechende JS-Emulatoren und Auswertungsalgorhythmen sind hinreichend getestet. Problem: die Rechenleistung NUR HIERFÜR MÜSSTE SICH FAST VERDOPPELN !!! Bitte den Börsengang abwarten !!
5. Auch wenn G JavaScript-Links auslesen könnte, wird es dies zukünftig nicht (i.d.R.) tun. Warum ? Barrierefreies Web, etc.
6. Kommt demnächst...
Gruss an alle aus einem tollen Forum und einen schönen Sonntag !!