Seite 1 von 1

Robot.txt + "noindex" doppelten Content vorbeugen

Verfasst: 23.07.2007, 10:30
von tbecker
Hallo SEO-Gemeinde,

wir haben bald eine Website mit Typo3, die als "Deutsche-Version" komplett in den Google-Index soll :D Allerdings haben wir auch eine Österreichische-Website, die zu 90% die gleichen Inhalte wie die Deutsche hat. Nun möchten wir, dass nur die restlichen 10% auch von Google indexiert werden.

Reicht es, um doppelten Conent zu vermeiden, die identischen .at-Seiten in der Robot.txt "auszusperren"?

Oder wie würdet ihr vorgehen?

Verfasst:
von

Verfasst: 23.07.2007, 15:07
von luzie
>>> Reicht es, um doppelten Conent zu vermeiden,
>>> die identischen .at-Seiten in der Robot.txt "auszusperren

würde reichen, ja

Verfasst: 24.07.2007, 08:37
von tbecker
würde ein
<meta name="robots" content="noindex">
noch zusätzliche "Sicherheit" bringen oder reicht die robot.txt?

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 24.07.2007, 09:34
von chrizz
die robots schließt nur den Crawler aus. Wenn jemand direkt auf deine Seite linkt, die eigentlich ausgeschlossen ist, dann passiert es, dass diese seite trotzdem gelistet wird....
also wäre ein noindex in den einzelnen seiten nicht verkehrt...

cheers

Verfasst: 24.07.2007, 14:15
von tbecker
Habe gehört, dass die robot.txt irgendwie "böse" Spider anzieht und dadurch Probleme auftauchen können? Ist da etwas dran?

Verfasst: 24.07.2007, 14:33
von chrizz
nie gehört. sorry. bei bösen spidern muss man sich eh andere sachen wie bot traps o.a. überlegen

Verfasst: 25.07.2007, 14:22
von tbecker
Also kann durch die robot.txt kein "Schaden" entstehen?

Verfasst: 25.07.2007, 15:27
von WilliWusel
tbecker hat geschrieben:Also kann durch die robot.txt kein "Schaden" entstehen?
Nur wenn Du versehentlich zu viele Seiten ausschließst... :roll:

Verfasst: 27.07.2007, 08:11
von tbecker
Das habe ich natürlich nicht vor :lol: