Ich habe ein Verzeichnis welches nicht durch die robots.txt gesperrt war und von Google ausgelesen wurde.
Alle Seiten dieses Verzeichnisses wurden im Google aufgenommen und sind sehr störend, da diese mit dem eigentlichen Inhalt der Seite nichts zu tun haben.
Mittlererweile gibt es eine robots.txt die das indizieren dieses Verzeichnisses verbietet. Ich habe gelesen das Seiten nur dann entfernt werden, wenn Sie einen 404 er Fehlercode zurückgeben.
Wie kann ich dieses gesamte Verzeichnis aus dem Index löschen?
Zuerst ein Meta-Noindex.Follow in den Header. Wenn dann alle Seite aus dem Index raus sind, dieses Verzeichnis per robots.txt sperren.
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!
Es ist nicht möglich alle Seiten aus dem index rauszunehmen. Die Seiten des eigentlichen Inhalts sollten schon drinnenbleiben. Vorallem dauert das ja relativ lange.
Danke für den Tipp "Google-Sitemap".
Das hab ich schon versucht bevor ich diesen Thread geschrieben habe. Jedoch löscht er keine Seiten welche erreichbar sind.
Es werden nur Seiten gelöscht die einen 404 er zurückgeben.
Lösch das Verzeichnis halt für ein paar Minuten (oder umbenennen) und benutze anschließend die Google-Konsole. Danach kannst Du das Verzeichnis wieder online stellen.