Aktualisierung der robots.txt
Verfasst: 28.05.2008, 10:39
Hallo,
Ich habe vor einiger Zeit ein Projekt gekauft. Der Vorbesitzer hatte meiner Meinung nach einige Contentseiten und Verzeichnisse unsinnigerweise per robots.txt ausgesperrt. Das hatte ich soweit geändert. Schon vor einer Woche etwa. Nun schaue ich über die google Webmatser tools nach und muss feststellen, dass diese urls bzw. verzeichnisse immernoch ausgesperrt sind, obwohl der spider scheinbar schon ein paar mal wieder da war.
woran könnte das wohl liegen?
cheers,
selectric
Ich habe vor einiger Zeit ein Projekt gekauft. Der Vorbesitzer hatte meiner Meinung nach einige Contentseiten und Verzeichnisse unsinnigerweise per robots.txt ausgesperrt. Das hatte ich soweit geändert. Schon vor einer Woche etwa. Nun schaue ich über die google Webmatser tools nach und muss feststellen, dass diese urls bzw. verzeichnisse immernoch ausgesperrt sind, obwohl der spider scheinbar schon ein paar mal wieder da war.
woran könnte das wohl liegen?
cheers,
selectric