Seite 1 von 1

frage zum spider

Verfasst: 20.10.2005, 11:22
von DiveSurfer
meine erste frage ist, wie lange wird eine seite die gespidert wird und ein 404 zurück kommt gespeicher?

meine zweite frage, wie ist es mit nem deep craw, wenn ich eien subdir habe, welche aber keine index.xxx enthält, aber dafür unterseiten ist das schlimm?
versucht der spider trotzem ne index zu finden ?

besten dank mfg tobias

Verfasst:
von

frage zum spider

Verfasst: 20.10.2005, 11:28
von Malte Landwehr
Es gibt nicht "den Spider".
Es gib tausende Spider im Netz.
Jede Suchmaschine hat einen (bzw mehrer) + Mail-Adressen-Sucher,etc,etc

Von welchem redest du?

Re: frage zum spider

Verfasst: 20.10.2005, 11:39
von DiveSurfer
-=nX=- hat geschrieben:Es gibt nicht "den Spider".
Es gib tausende Spider im Netz.
Jede Suchmaschine hat einen (bzw mehrer) + Mail-Adressen-Sucher,etc,etc

Von welchem redest du?
das ist mir schon klar, aber nehmen wir mal als beispiel den von google

frage zum spider

Verfasst: 21.10.2005, 07:59
von DiveSurfer
kann mir dazu keiner was sagen ?