wie meine Überschrift ja schon sagt werden bei meiner Seite laut webcrawl
über 1000 Seiten nicht gefunden. Ich habe die Seite vor kurzem umgstellt und es haben sich viele urls geändert.
Ich habe dauraufhin über den Menupunkt Tools -> Urls entfernen
ganze Verzeichnisse angegeben die nicht mehr gelistet werden sollen. Zusätzlich habe ich die Verzeichnisse in der robots.txt angegeben.
Laut google wurde der Inhalt entfernt. Aber warum tauchen die urls denn noch in der Liste auf? wie bekomme ich die denn da bloß wieder weg?
Habe eine neue Sizemap erstellt die insgesamt 500 Urls umfasst, davon sind 291 indiziert.
Das dauert für gewöhnlich eine ganze Weile, bis Google seine sämtlichen Datencenter wieder bereinigt hat. Es handelt sich ja nicht nur um einen Datenbestand, wie bei Dir zu Hause auf dem Rechner, sondern um unzählige Duplicate. Die können selbst nach einem Jahr noch immer wieder auftauchen.
Ich würde insbesondere für die Besucher, die auf solch ein Ergebnis klicken, zumindest vorrübergehend eine 301 einrichten, bis der Spuk vorbei ist.