Hi, ich habe ein Problem mit der Cache-Löschung bei Google (konnte über die Suche hier nix finden was hilfreich gewesen wäre):
Ich hatte auf meiner Site ein Word-doc abgelegt mit allen Adressen meiner Klassenkameraden - von 5 Jahren, da hat sich noch keiner groß Sorgen gemacht um Datenschutz. Ja war blöd im Nachhinein aber jetzt hab ich den Salat.
Jetzt schrieb mich eine ehemalige Mitschülerin an ich solle das Ding doch bitte ganz schnell runternehmen, bei Google würde sie mit Adresse und allem gelistet und das wolle sie nicht. Hab ich gemacht, hab sogar das ganze Verzeichnis gelöscht.
Damit es aus dem Google-Cashe verschwindet, habe ichs über das Removel-Tool für Webmaster rauswerfen lassen - mit gemischtem Ergebnis:
- die Cashe-Löschung für das Word-Doc hat den Status "entfernt": Aber wenn man den Namen in Google eintippt wird die Dame mitsamt dem Doc IMMER NOCH gefunden!
- die Entfernung der html-Seite von der aus das Wordfile verlinkt war und die Entfernung des ganzen Verzeichnisses /class_of_93 wurden "abgelehnt", obwohl sie gar nicht mehr auf dem Server sind.
Habe jetzt noch ne robots.txt hochgeladen mit "disallow" und nochmal Löschung beantragt, aber an sich hätte das Suchergebnis nach der angeblichen Cashe-Löschung doch verschwinden müssen - oder müssen ALLE DREI Bedingungen (404/robots/meta-tag) erfüllt sein?
der schnellere Weg wäre wahrscheinlich, ein neues Dokument gleichen Namens (auf Groß-/Kleinschreibung achten!!), aber anderen Inhalts aufzusetzen und solange von der Startseite zu verlinken, bis Google den neuen Text gefunden + gespeichert hat.
DAS soll schneller gehen als die URL-Entfernung mit dem Tool? Da ist ja immerhin ein Ergebnis nach 3-5 Tagen zu sehen, das letzte Mal dass meine Site gecrawlt wurde war glaub ich im Februar!
Ich habe das schon richtig gemacht oder - Cache-Löschung beantragt?
Wenn Deine Seite die "Punkteschieber"-Seite ist, die wurde das letzte Mal am 4. Juni gecrawlt (Hauptseite).
Der PR ist 0, also ist damit zu rechnen, dass es ein wenig dauert, bis der Bot wieder vorbeischaut.
Deshalb würde ich noch mal die Löschung DER URL aus dem Index beantragen - geht wahrscheinlich schneller.
Durch die Cache-Löschung verhinderst Du nur die Zwischenspeicherung, NICHT die Indexierung des Dokuments. Du musst die URL aus dem Index entfernen lassen bzw. (falls nicht möglich) bewirken, dass die Seite zu anderen Begriffen indexiert wird.
Wird die Löschung wieder abgelehnt, würde ich die gesamte Ordnerstruktur wieder einstellen (mit Dummy-Inhalten), von der Startseite eine HTML-Seite unauffällig verlinken, die wiederum nur Links zu allen Seiten der Struktur enthält, und für diese Seiten das robots-meta-tag auf "noindex,follow" setzen.
Damit fliegen die HTML-Seiten beim nächsten Crawlen ganz aus dem Index, das doc-file ist zu anderen Keys indexiert und dessen Cache ist unkritisch.
Das ist m.E. (nach dem G.-Löschauftrag) die schnellste Lösung, um den kritischen Content auch bei G. herauszukegeln.
Nur über einen 404er-Fehler und ohne interne Verlinkung kann die Entfernung aus dem Index sehr lange dauern.
Kann auch so ein wenig dauern, funktioniert aber sicher.
Nicht vergessen:
Das Crawlen der Struktur in der robots.txt wieder erlauben, sonst klappt das nicht.