Seite 1 von 1

frage zum google spider

Verfasst: 24.04.2006, 08:01
von DiveSurfer
ich hätte mal eine kleine frage zum google spieder, der kommt ja regelmässig vorbei und schaut sich auch die robors.txt an, werde etwailige änderungen "sofort" übernommen oder dauert das eine weil (bsp. monat)?


danke für die antworten

Verfasst:
von

frage zum google spider

Verfasst: 24.04.2006, 11:36
von Windy
Änderungen werden bei neuen Crawl berücksichtigt. Schon im Index vorhandene Seiten werden davon nicht beeinflusst.

frage zum google spider

Verfasst: 24.04.2006, 12:25
von DiveSurfer
achso wenn ich aber sage:
User-agent: *
Disallow: /

was geschieht dann mit den seiten die schon im index sind und vorallem wie bekomm ich die dann da raus?

Re: frage zum google spider

Verfasst: 24.04.2006, 13:56
von thetrasher
DiveSurfer hat geschrieben:achso wenn ich aber sage:
User-agent: *
Disallow: /

was geschieht dann mit den seiten die schon im index sind und vorallem wie bekomm ich die dann da raus?
https://www.google.com/intl/de/webmasters/remove.html hat geschrieben:Um Ihre Website aus Suchmaschinen zu entfernen und alle Robots daran zu hindern, sie künftig zu durchlaufen, platzieren Sie die folgende robots.txt-Datei in das Stammverzeichnis Ihres Servers:
User-agent: *
Disallow: /
Entfernen = Entfernen aus dem angezeigten Index

Auch nach einer schnellen Löschung via URL-Console unterdrückt Google lediglich die Anzeige. Was hilft sind die Fehlerkodes 410 (HTTP/1.1) bzw. 404 (HTTP/1.0) für jede der aus dem Index zu löschenden Seiten. Cloaking!

frage zum google spider

Verfasst: 24.04.2006, 13:59
von DiveSurfer
aha ok vielen dank