Robot.txt + "noindex" doppelten Content vorbeugen
Verfasst: 23.07.2007, 10:30
Hallo SEO-Gemeinde,
wir haben bald eine Website mit Typo3, die als "Deutsche-Version" komplett in den Google-Index soll
Allerdings haben wir auch eine Österreichische-Website, die zu 90% die gleichen Inhalte wie die Deutsche hat. Nun möchten wir, dass nur die restlichen 10% auch von Google indexiert werden.
Reicht es, um doppelten Conent zu vermeiden, die identischen .at-Seiten in der Robot.txt "auszusperren"?
Oder wie würdet ihr vorgehen?
wir haben bald eine Website mit Typo3, die als "Deutsche-Version" komplett in den Google-Index soll
Reicht es, um doppelten Conent zu vermeiden, die identischen .at-Seiten in der Robot.txt "auszusperren"?
Oder wie würdet ihr vorgehen?

