Naja, Google macht das bereits seit längerer Zeit immer mal wieder für kurze Zeit. Konnte aber bislang keine Verbesserung der SERPs in unmittelbarem Zusammenhang feststellen. Denke die testen damit einfach ein wenig, Aktionismus wie man ihn eben von Google kennt. Vielleicht einfach auch nur für ein paar interne Statistiken, wie oft welcher Platz und die Anzeigen geklickt werden.
Das macht BigG relativ häufig, und diese Ergebnisse haben definitiv auch einen Einfluß auf das Ranking.
Es gibt eine Menge Patente von Google in die Richtung (wie z.B.: "Query Chains - Learning to Rank from Implicit Feedback" - www.cs.cornell.edu/~filip/papers/Radlin ... Chains.pdf)
Und in Action kann man das ja sowieso schon via Google Sitemaps sehen!
Mediadonis.net
----------
Try [url=httpss://de.onpage.org/product/free/]OnPage.org FREE[/url] - die volle Kraft von OnPage.org, gratis für kleine Webseiten!
@mediadonis
Ok, das ist dann natürlich für white hat Seo mit ordentlichen Kontent von Vorteil. G. kann ja über die Masse der Anfragen die da reinkommen bestimmt auf die Aufenthaltsdauer auf einer bestimmten Seite schliessen und so die Spreu (Black Hat mit Schrott Kontent) vom Weizen (ordentlicher Kontent) trennen.
Mmmh, muss ich mal die Gewichtung meiner Projektstrukuren verlagern
Mein neuer Artikel : Von 0 auf 1000 Besucher pro Blogpost in einem neuen Blog.
Könnte das auch evtl. was mit dem 31 Filter zu tuen haben.
Sobald "Query Chains" eingeschaltet ist, könnte man doch bei nem Top platzierten Begriff einfach nur kurz auf das erste Ergebnis gehen und gleich danach das nächste Suchergebnis aufrufen...
Das per Robot von ein paar Rechnern mit unterschiedlicher Ip ...
Mein neuer Artikel : Von 0 auf 1000 Besucher pro Blogpost in einem neuen Blog.