Die Theorie von dem FRESH Index war 2003/2004 ein ziemlich heißes Thema in US SEO Foren. Offiziell bestätigt ist aus der Zeit nur, dass es einen FRESH-Bot gibt, der sich nur Seiten anschaut, die geändert wurden und nicht tief gecrawled werden. Das Ganze ist auch offiziell gewesen. Ich glaube, GoogleGuy (der sich später als Matt Cutts entpuppte) hat dazu mal was geschrieben.
Hintergrund war, dass Goolgle News mit im Index haben wollte. Also frische Daten. Daher kam dann die Beobachtung, dass neue Seiten erstmal gut ranken, dann aber wieder runter gehen und erst danach in den regulären Index gehen.
Wenn ich aber schon einen FRESH-Index führe und den mit dem regulären Index mische, dann muss ich ja auch die Backlinks zum FRESH Content berücksichtigen.
Man stelle sich ein Hype Thema vor -> 50.000 Meldungen -> Fresh Index. Liste ich nun die, deren Domain am stärksten ist oder berücksichtige ich auch schwache Seiten, die sehr viele Links auf dieses frische Thema haben? Letzteres würde zumindest Sinn machen.
Aber ansonsten gibt es dazu keine fundierten Grundlagen außer das übliche SEO Raten
