
Normalerweise sollte man ja einen Ordner in der robots.txt sperren wenn der Bot diesen Ordner nicht spidern soll/darf.
Aber nun frag ich mich ob das auch wirklich die beste Lösung für eine Domain ist.
Daher die Frage hat schon wer mal getestet was besser funktioniert?
Disallow per robots.txt oder im header noindex, follow.
Fallbeispiel wäre z.B. ein Blog.
Viele erlauben ja den Bot die Kategorien zu spidern und zu indexieren. Aber bei ältern Blogs oder wo einfach nur viel geschrieben wird wandern die angeteaserten Artikel irgendwann auf Seite 10,20, 30 usw.. Daher auch die Überlegung nun das Monatsarchiv für den Bot nicht mehr sperren sondern die Archiv-Seiten nur noch per noindex, follow zu deklarieren. Denn so sind die Artikel nicht mehr in Ebene 5 z.B. erreichbar sondern schon ab Ebene 2 bzw. 3 z.B. was die Artikel eigentlich besser ranken müsste.
Also hat wer sowas schonmal getestet???
MFG
Maik