Google schaut sicher noch ein paar mal vorbei, wenn er aber merkt dass die Seite nirgends mehr verlinkt ist dann lässt der Bot es irgendwann sein. Gibt ja auch Sinn: Nicht verlinkte Seiten sind uninteressant.
Sein Gedanke:
Link setzen, warten, freuen.
Link wegnehmen, weiterhin freuen.
Nur so funktioniert das eben nicht Sonst würd ich einfach jede Seite so lange verlinken bis der Bot da ist und dann ne neue Seite verlinken. Würde man ne Menge Seiten mit in den Index bekommen.
Ja, so läuft das nicht. Im Gegenteil, wäre froh, wenn da ein bischen weniger von bestimmten Sachen zu finden wäre. Tatsächlich habe ich Verzeichnisse, die ich schon lange deaktiviert habe, die immer noch fast täglich von MSN gespidert werden. Warum, wieso, keine Ahnung. MSN ist sowieso ein ganz besonderer Ausnahmefall, was das spidern und die Aufnahme in ihren Index betrifft.