Beitrag
von IT-Knecht » 08.05.2013, 15:18
Für ein uralten Forum mit 8000 Threads habe ich bei einem Softwareupdate aufgeräumt.
Je nach dem robots.txt, 301 oder 404.
Nach sechs Wochen ist die Anzahl der Seiten bei site:domain.tld (70000) noch nicht zurück gegegangen.
(Ist mir auch egal, es kommt nicht so drauf an und die alten Seiten ranken nicht mehr.)
Insbesondere die per Robots txt gesperrten URLs bleiben im Index, mit dem Vermerk:
"Aufgrund der robots.txt dieser Website ist keine Beschreibung für dieses Ergebnis verfügbar."
Was Google einmal in den Krallen hat will Google nicht mehr loslassen.
Ein bisschen blöd ist das, wenn schon die URL Informationen enthält, zu denen man nicht gefunden werden will.
Die Entfernung einer Seite über die WMT hat allerdings binnen 24h geklappt.
- Martin