Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Robot.txt + "noindex" doppelten Content vorbeugen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
tbecker
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 26.03.2007, 08:05

Beitrag von tbecker » 23.07.2007, 10:30

Hallo SEO-Gemeinde,

wir haben bald eine Website mit Typo3, die als "Deutsche-Version" komplett in den Google-Index soll :D Allerdings haben wir auch eine Österreichische-Website, die zu 90% die gleichen Inhalte wie die Deutsche hat. Nun möchten wir, dass nur die restlichen 10% auch von Google indexiert werden.

Reicht es, um doppelten Conent zu vermeiden, die identischen .at-Seiten in der Robot.txt "auszusperren"?

Oder wie würdet ihr vorgehen?
Zuletzt geändert von tbecker am 24.07.2007, 14:15, insgesamt 2-mal geändert.
Sexy Mousepad - das innovative Geschenk für (fast) jeden Anlass ;-)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 23.07.2007, 15:07

>>> Reicht es, um doppelten Conent zu vermeiden,
>>> die identischen .at-Seiten in der Robot.txt "auszusperren

würde reichen, ja
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

tbecker
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 26.03.2007, 08:05

Beitrag von tbecker » 24.07.2007, 08:37

würde ein
<meta name="robots" content="noindex">
noch zusätzliche "Sicherheit" bringen oder reicht die robot.txt?
Sexy Mousepad - das innovative Geschenk für (fast) jeden Anlass ;-)

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 24.07.2007, 09:34

die robots schließt nur den Crawler aus. Wenn jemand direkt auf deine Seite linkt, die eigentlich ausgeschlossen ist, dann passiert es, dass diese seite trotzdem gelistet wird....
also wäre ein noindex in den einzelnen seiten nicht verkehrt...

cheers

tbecker
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 26.03.2007, 08:05

Beitrag von tbecker » 24.07.2007, 14:15

Habe gehört, dass die robot.txt irgendwie "böse" Spider anzieht und dadurch Probleme auftauchen können? Ist da etwas dran?
Sexy Mousepad - das innovative Geschenk für (fast) jeden Anlass ;-)

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 24.07.2007, 14:33

nie gehört. sorry. bei bösen spidern muss man sich eh andere sachen wie bot traps o.a. überlegen

tbecker
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 26.03.2007, 08:05

Beitrag von tbecker » 25.07.2007, 14:22

Also kann durch die robot.txt kein "Schaden" entstehen?
Sexy Mousepad - das innovative Geschenk für (fast) jeden Anlass ;-)

WilliWusel
PostRank 9
PostRank 9
Beiträge: 1257
Registriert: 21.08.2006, 14:55

Beitrag von WilliWusel » 25.07.2007, 15:27

tbecker hat geschrieben:Also kann durch die robot.txt kein "Schaden" entstehen?
Nur wenn Du versehentlich zu viele Seiten ausschließst... :roll:

tbecker
PostRank 3
PostRank 3
Beiträge: 81
Registriert: 26.03.2007, 08:05

Beitrag von tbecker » 27.07.2007, 08:11

Das habe ich natürlich nicht vor :lol:
Sexy Mousepad - das innovative Geschenk für (fast) jeden Anlass ;-)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag