Wenn die Daten der User (man kann das Sortieren ja mit einem menschlichen Rating für die Seiten vergleichen) in die normalen serps einfließen wovon ich stark ausgehe, ist es nur ne Frage der Zeit wann das erste Tool auftaucht, dass Googleaccounts erstellt verifiziert und bestimmte Seiten zu den gewünschten Keys nach oben manipuliert. Das ist nicht schwer zu programmieren. - Hier liegt wohl das Hauptproblem dieser Methode, den an sich ist sie genial, um Serps zu verbessern (im sinne des users)!
=> Fallbeispiel: Wenn frägst du ob dein Tennisschläger , den du produzierst gut ist? Die Zuschauer, die Roger Federer's Tennisschläger nennen, weil der damit immer gewinnt, oder die Tennisprofis und Tennisspieler für die der Schläger gemacht ist?
Warum sollte den Google die Datenbasis nicht auswerten und in normale Serps einfließen lassen? Wäre ja total ineffizient. Das Rating der Seiten durch die User gibt direkt die Qualität der Seite für den User zu einem bestimmten Key aus. Diese Daten sind praktisch qualitativ wertvoller als indirekte Einflußgrößen, wie die Anzahl der Backlinks (mit Key im Linktext) zu eine Seite, welche nur mit viel wohlwollen als Indikator für eine gute Seite zu einem bestimmten Key gesehen werden kann. Google ist für Surfer gemacht, nicht für Webmaster! Diese Methode bietet zum ersten mal (ich nehme jetzt mal Sozial bookmarks außen vor
!) die Möglichkeit, die Suchmaschinenergebnisse aufgrund von Größen zu sorteieren die einen direkten Zusammenhang mit dem Ziel der Suchmaschine (userfreundliche und nutzenstiftende Ergebnisse zu zeigen) haben. Bisher werden die Suchmaschinenergebnisse anhand von Größen sortiert die nur einen indirekten Einfluß haben (Siehe Backlinks, Siehe Keyword-Density).