Wollte mal nachfragen, ob es bei mehreren auch so ist!
Bei mir kommt der Slurp massig am Tag vorbei, liest aber nur die robots.txt. In der robots.txt lasse ich alles zu. (habe sie auch schon ganz herausgenommen) alles ohne Erfolg. Alle anderen Roboter lesen die Seiten. Nur ebene der Slurp von Yahoo nicht.
Hat jemand eine Idee???
infos hab ich leider auch keine,
aber ich hab mir heut morgen den Web Stats Tracker installiert
und konnte bis jetzt von Slurp schon 69 Zugriffe feststellen
darunter war ein einziger Zugriff auf eine Seite, die es jedoch nicht mehr gibt...
na, an dem Web Stats Tracker wirds aber nicht gelegen haben dass der Slurp die Dateien einliest Ich sachs nur, damit Hinsifix jetzt nicht meint das würde sein problem lösen