Ich habe ein Projekt, das schon lange Zeit mit dem Hauptkeyword (nicht umkämpft, dennoch >500.000 Treffer) auf Platz 1 steht. Beliebige Kombis (egal ob "Gurkensalat [Hauptkeyword]" oder "Lebensversicherung [Hauptkeyword]") auf einer Seite platziert, brachten diese meist zügig unter die Top 10. Eine Menge Unterseiten habe ich dann in haltloser Gier nach Platz 1 zukzessive überoptimiert

Jetzt kommt das Interessante:
1. Ich erkenne nach ein paar Tagen, dass der Googlebot mal wieder komplett durch die Seiten gegangen ist.
2. Am kommenden Tag ist das Ranking vollständig das alte, wie vor dem Abrutschen, mit einem Vielfachen an Besuchern, unermesslichen Reichtum mit sich bringend

3. Die Suchergebnisse zeigen jedoch die "wiederbelebten" Seiten noch in der alten Version! Der ganze Keyword-Spam ist in der Kurzbeschreibung sichtbar, auch der Titel ist noch der alte. Und im Cache ist noch die alte Version!
4. Ein paar Tage später ist im Cache die neue Version, Kurzbeschreibung und Titel sind aber immer noch die alten.
5. Noch ein paar Tage zeigen die Suchergebnisse auch den neuen Stand der Seiten.
Fazit: Nach einer Änderung einer Seite kann sich diese sofort auf das Ranking auswirken, die Anzeige der Suchergebnisse und des Caches können jedoch zeitlich hinterherhinken, und zwar auch wieder unabhängig voneinander. Der Bot hat die neue Seite schon gelesen, sie wird auch so bewertet, aber die Anzeige in den Suchergebnissen stimmt noch nicht damit überein.
Ich finde das jedenfalls bemerkenswert...
