Beitrag
von v-maxx » 08.06.2007, 08:13
Wenn Deine Seite die "Punkteschieber"-Seite ist, die wurde das letzte Mal am 4. Juni gecrawlt (Hauptseite).
Der PR ist 0, also ist damit zu rechnen, dass es ein wenig dauert, bis der Bot wieder vorbeischaut.
Deshalb würde ich noch mal die Löschung DER URL aus dem Index beantragen - geht wahrscheinlich schneller.
Durch die Cache-Löschung verhinderst Du nur die Zwischenspeicherung, NICHT die Indexierung des Dokuments. Du musst die URL aus dem Index entfernen lassen bzw. (falls nicht möglich) bewirken, dass die Seite zu anderen Begriffen indexiert wird.
Wird die Löschung wieder abgelehnt, würde ich die gesamte Ordnerstruktur wieder einstellen (mit Dummy-Inhalten), von der Startseite eine HTML-Seite unauffällig verlinken, die wiederum nur Links zu allen Seiten der Struktur enthält, und für diese Seiten das robots-meta-tag auf "noindex,follow" setzen.
Damit fliegen die HTML-Seiten beim nächsten Crawlen ganz aus dem Index, das doc-file ist zu anderen Keys indexiert und dessen Cache ist unkritisch.
Das ist m.E. (nach dem G.-Löschauftrag) die schnellste Lösung, um den kritischen Content auch bei G. herauszukegeln.
Nur über einen 404er-Fehler und ohne interne Verlinkung kann die Entfernung aus dem Index sehr lange dauern.
Kann auch so ein wenig dauern, funktioniert aber sicher.
Nicht vergessen:
Das Crawlen der Struktur in der robots.txt wieder erlauben, sonst klappt das nicht.
Gruß
v-maxx