Seite 1 von 1
Robot.txt + "noindex" doppelten Content vorbeugen
Verfasst: 23.07.2007, 10:30
von tbecker
Hallo SEO-Gemeinde,
wir haben bald eine Website mit Typo3, die als "Deutsche-Version" komplett in den Google-Index soll

Allerdings haben wir auch eine Österreichische-Website, die zu 90% die gleichen Inhalte wie die Deutsche hat. Nun möchten wir, dass nur die restlichen 10% auch von Google indexiert werden.
Reicht es, um doppelten Conent zu vermeiden, die identischen .at-Seiten in der Robot.txt "auszusperren"?
Oder wie würdet ihr vorgehen?
Verfasst: 23.07.2007, 15:07
von luzie
>>> Reicht es, um doppelten Conent zu vermeiden,
>>> die identischen .at-Seiten in der Robot.txt "auszusperren
würde reichen, ja
Verfasst: 24.07.2007, 08:37
von tbecker
würde ein
<meta name="robots" content="noindex">
noch zusätzliche "Sicherheit" bringen oder reicht die robot.txt?
Verfasst: 24.07.2007, 09:34
von chrizz
die robots schließt nur den Crawler aus. Wenn jemand direkt auf deine Seite linkt, die eigentlich ausgeschlossen ist, dann passiert es, dass diese seite trotzdem gelistet wird....
also wäre ein noindex in den einzelnen seiten nicht verkehrt...
cheers
Verfasst: 24.07.2007, 14:15
von tbecker
Habe gehört, dass die robot.txt irgendwie "böse" Spider anzieht und dadurch Probleme auftauchen können? Ist da etwas dran?
Verfasst: 24.07.2007, 14:33
von chrizz
nie gehört. sorry. bei bösen spidern muss man sich eh andere sachen wie bot traps o.a. überlegen
Verfasst: 25.07.2007, 14:22
von tbecker
Also kann durch die robot.txt kein "Schaden" entstehen?
Verfasst: 25.07.2007, 15:27
von WilliWusel
tbecker hat geschrieben:Also kann durch die robot.txt kein "Schaden" entstehen?
Nur wenn Du versehentlich zu viele Seiten ausschließst...

Verfasst: 27.07.2007, 08:11
von tbecker
Das habe ich natürlich nicht vor
