Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Robot.txt + "noindex" doppelten Content vorbeugen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
tbecker
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 26.03.2007, 08:05

Beitrag von tbecker » 23.07.2007, 10:30

Hallo SEO-Gemeinde,

wir haben bald eine Website mit Typo3, die als "Deutsche-Version" komplett in den Google-Index soll :D Allerdings haben wir auch eine Österreichische-Website, die zu 90% die gleichen Inhalte wie die Deutsche hat. Nun möchten wir, dass nur die restlichen 10% auch von Google indexiert werden.

Reicht es, um doppelten Conent zu vermeiden, die identischen .at-Seiten in der Robot.txt "auszusperren"?

Oder wie würdet ihr vorgehen?
Zuletzt geändert von tbecker am 24.07.2007, 14:15, insgesamt 2-mal geändert.
Sexy Mousepad - das innovative Geschenk für (fast) jeden Anlass ;-)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 23.07.2007, 15:07

>>> Reicht es, um doppelten Conent zu vermeiden,
>>> die identischen .at-Seiten in der Robot.txt "auszusperren

würde reichen, ja
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

tbecker
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 26.03.2007, 08:05

Beitrag von tbecker » 24.07.2007, 08:37

würde ein
<meta name="robots" content="noindex">
noch zusätzliche "Sicherheit" bringen oder reicht die robot.txt?
Sexy Mousepad - das innovative Geschenk für (fast) jeden Anlass ;-)