Seiten Ausschliessen - Unterseiten nicht ausschliessen
Verfasst: 18.11.2008, 12:31
Hallo miteinander
Ich habe mir gestern ein robots.txt angelegt um duplicated content zu verhindern. Nun habe ich nur noch ein Problem.
Ich möchte die seite(verzeichnis) www.domain.com/topics ausschliessen weil dies der gleiche inhalt wie die startseite ist(duplicated content).
Die Seite /topics/ueber_uns sollte aber wiederum nicht ausgeschlossen werden
Wenn ich nun
Disallow: /topics
ins robots.txt schreibe ist zwar /topics nicht mehr spiderbar. Dafür aber auch alle Unterseiten nicht mehr.
Gibt es da eine Möglichkeit das zu umgehen?
Vielen Dank
ZBFIN
Ich habe mir gestern ein robots.txt angelegt um duplicated content zu verhindern. Nun habe ich nur noch ein Problem.
Ich möchte die seite(verzeichnis) www.domain.com/topics ausschliessen weil dies der gleiche inhalt wie die startseite ist(duplicated content).
Die Seite /topics/ueber_uns sollte aber wiederum nicht ausgeschlossen werden
Wenn ich nun
Disallow: /topics
ins robots.txt schreibe ist zwar /topics nicht mehr spiderbar. Dafür aber auch alle Unterseiten nicht mehr.
Gibt es da eine Möglichkeit das zu umgehen?
Vielen Dank
ZBFIN