Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Robot.txt + "noindex" doppelten Content vorbeugen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
tbecker
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 26.03.2007, 08:05

Beitrag von tbecker » 23.07.2007, 10:30

Hallo SEO-Gemeinde,

wir haben bald eine Website mit Typo3, die als "Deutsche-Version" komplett in den Google-Index soll :D Allerdings haben wir auch eine Österreichische-Website, die zu 90% die gleichen Inhalte wie die Deutsche hat. Nun möchten wir, dass nur die restlichen 10% auch von Google indexiert werden.

Reicht es, um doppelten Conent zu vermeiden, die identischen .at-Seiten in der Robot.txt "auszusperren"?

Oder wie würdet ihr vorgehen?
Zuletzt geändert von tbecker am 24.07.2007, 14:15, insgesamt 2-mal geändert.
Sexy Mousepad - das innovative Geschenk für (fast) jeden Anlass ;-)