robots
Verfasst: 20.02.2006, 11:40
Hallo,
ich habe in meinem Forum ein Problem mit dupliacte content bekommen nach vielen vielen Monaten. So langsam hat aber google drauf reagiert und handelt, daher muss ich ebenso handeln. Problem bei dieser mod_rewrite Anpassung in meinem Forum war, dass für jeden neuen post eine neue url für den Thread generiert worden ist.
Ich habe nun folgende robots.txt hochgeladen um einige urls auszuschließen. Ist das so richtig?
User-agent: * Disallow:
Disallow: /redir.php
Disallow: /print/
Disallow: /firstnewpost/
Disallow: /nextoldest/
Disallow: /nextnewest/
Disallow: /post/
Danke
ich habe in meinem Forum ein Problem mit dupliacte content bekommen nach vielen vielen Monaten. So langsam hat aber google drauf reagiert und handelt, daher muss ich ebenso handeln. Problem bei dieser mod_rewrite Anpassung in meinem Forum war, dass für jeden neuen post eine neue url für den Thread generiert worden ist.
Ich habe nun folgende robots.txt hochgeladen um einige urls auszuschließen. Ist das so richtig?
User-agent: * Disallow:
Disallow: /redir.php
Disallow: /print/
Disallow: /firstnewpost/
Disallow: /nextoldest/
Disallow: /nextnewest/
Disallow: /post/
Danke

