Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Frage zur Vermeidung von doppeltem Content

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
mcenroe
PostRank 4
PostRank 4
Beiträge: 103
Registriert: 10.08.2006, 10:49

Beitrag von mcenroe » 19.03.2007, 13:59

Hallo,

innerhalb eines Projektes baue ich derzeit eine mobile Version für PDAs und Smartphones auf - das Design ist also extra angespasst, weil ich mit reinem CSS keine befriedigenden Ergebnisse erzielen konnte.

Die Contents für die mobile Version befinden sich auf dem Server in einem Extraverzeichnis /mobile/. In den Verzeichnissen für die herkömmliche Ausgabe im Browser auf dem PC sind (weil es ja nur eine Ergänzung des Angebots ist) teilweise die gleichen Artikel zu finden.

Nun habe ich, um doppelten Content zu vermeiden, das /mobile/-Verzeichnis für alle Crawler/Robots in der robots.txt gesperrt und einen zweiten Eintrag angelegt, der das Verzeichnis /mobile/ z. B. für den mobilen Googlebot erreichbar macht, weil die mobilen Seiten ja auch nur in den mobilen Index von Google reinsollen.

Nun möchte ich eure Einschätzungen: Reicht meine Maßnahme um speziell bei Google die Entstehung von doppeltem Content zu verhindern?

Interessiere mich für eure Meinungen :wink:

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

expy
PostRank 8
PostRank 8
Beiträge: 797
Registriert: 29.10.2005, 14:58
Wohnort: Frechen

Beitrag von expy » 19.03.2007, 14:38

hier mal was von google zu diesem thema:
https://googlewebmastercentral-de.blogs ... ei_08.html

mcenroe
PostRank 4
PostRank 4
Beiträge: 103
Registriert: 10.08.2006, 10:49

Beitrag von mcenroe » 19.03.2007, 14:57

...ein sehr nützlicher Link, vielen Dank. Ich denke, dass ich mit dem Ein- bzw. Ausladen mittels der von mir beschriebenen Praxis in der robots.txt keine Probleme bekommen sollte. In dem Dokument wird dazu ja auch Stellung genommen:

"Richtig blockieren: Anstatt unsere Algorithmen bestimmen zu lassen, welches die beste Version eines Dokuments ist, könnt ihr uns bei der Auswahl der von euch bevorzugten Version helfen. Wenn ihr beispielsweise nicht möchtet, dass wir die Druckansichten eurer Artikel indexieren, dann setzt ein Disallow für die entsprechenden Verzeichnisse oder verwendet reguläre Ausdrücke in der robots.txt-Datei."

Wenn ich den "normalen" Googlebot von dem Verzeichnis /mobile/ aussperre und nur den "mobilen" Googlebot einladen, sollte es doch keine Probleme geben, weil die mobilen Seiten dann im "normalen" Index gar nicht auftauchen müssten. Allerdings sollte ich dann aber wohl auch alle "normalen" Seiten für den mobilen Googlebot sperren, damit keine dieser Seiten im mobilen Index auftauchen, weil man dann ja dort evtl. doppelten Content erzeugt.

Seh ich das richtig???