Seite 1 von 1
frage zum google spider
Verfasst: 24.04.2006, 08:01
von DiveSurfer
ich hätte mal eine kleine frage zum google spieder, der kommt ja regelmässig vorbei und schaut sich auch die robors.txt an, werde etwailige änderungen "sofort" übernommen oder dauert das eine weil (bsp. monat)?
danke für die antworten
frage zum google spider
Verfasst: 24.04.2006, 11:36
von Windy
Änderungen werden bei neuen Crawl berücksichtigt. Schon im Index vorhandene Seiten werden davon nicht beeinflusst.
frage zum google spider
Verfasst: 24.04.2006, 12:25
von DiveSurfer
achso wenn ich aber sage:
User-agent: *
Disallow: /
was geschieht dann mit den seiten die schon im index sind und vorallem wie bekomm ich die dann da raus?
Re: frage zum google spider
Verfasst: 24.04.2006, 13:56
von thetrasher
DiveSurfer hat geschrieben:achso wenn ich aber sage:
User-agent: *
Disallow: /
was geschieht dann mit den seiten die schon im index sind und vorallem wie bekomm ich die dann da raus?
https://www.google.com/intl/de/webmasters/remove.html hat geschrieben:Um Ihre Website aus Suchmaschinen zu entfernen und alle Robots daran zu hindern, sie künftig zu durchlaufen, platzieren Sie die folgende robots.txt-Datei in das Stammverzeichnis Ihres Servers:
User-agent: *
Disallow: /
Entfernen = Entfernen aus dem
angezeigten Index
Auch nach einer schnellen Löschung via URL-Console unterdrückt Google lediglich die Anzeige. Was hilft sind die Fehlerkodes 410 (HTTP/1.1) bzw. 404 (HTTP/1.0) für jede der aus dem Index zu löschenden Seiten. Cloaking!
frage zum google spider
Verfasst: 24.04.2006, 13:59
von DiveSurfer
aha ok vielen dank