Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Seiten Ausschliessen - Unterseiten nicht ausschliessen

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
zbfin
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 18.11.2008, 12:22

Beitrag von zbfin » 18.11.2008, 12:31

Hallo miteinander

Ich habe mir gestern ein robots.txt angelegt um duplicated content zu verhindern. Nun habe ich nur noch ein Problem.

Ich möchte die seite(verzeichnis) www.domain.com/topics ausschliessen weil dies der gleiche inhalt wie die startseite ist(duplicated content).

Die Seite /topics/ueber_uns sollte aber wiederum nicht ausgeschlossen werden

Wenn ich nun
Disallow: /topics
ins robots.txt schreibe ist zwar /topics nicht mehr spiderbar. Dafür aber auch alle Unterseiten nicht mehr.

Gibt es da eine Möglichkeit das zu umgehen?

Vielen Dank
ZBFIN