Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Disallow vs. noindex follow

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
DZVO
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 27.12.2005, 04:44

Beitrag von DZVO » 25.02.2010, 08:59

So ich mal wieder nach Wochen :) .
Normalerweise sollte man ja einen Ordner in der robots.txt sperren wenn der Bot diesen Ordner nicht spidern soll/darf.

Aber nun frag ich mich ob das auch wirklich die beste Lösung für eine Domain ist.

Daher die Frage hat schon wer mal getestet was besser funktioniert?
Disallow per robots.txt oder im header noindex, follow.

Fallbeispiel wäre z.B. ein Blog.
Viele erlauben ja den Bot die Kategorien zu spidern und zu indexieren. Aber bei ältern Blogs oder wo einfach nur viel geschrieben wird wandern die angeteaserten Artikel irgendwann auf Seite 10,20, 30 usw.. Daher auch die Überlegung nun das Monatsarchiv für den Bot nicht mehr sperren sondern die Archiv-Seiten nur noch per noindex, follow zu deklarieren. Denn so sind die Artikel nicht mehr in Ebene 5 z.B. erreichbar sondern schon ab Ebene 2 bzw. 3 z.B. was die Artikel eigentlich besser ranken müsste.

Also hat wer sowas schonmal getestet???

MFG
Maik
kuckst du oder schluckst du .... | FollowTheMillion sag ich nur :)