innerhalb eines Projektes baue ich derzeit eine mobile Version für PDAs und Smartphones auf - das Design ist also extra angespasst, weil ich mit reinem CSS keine befriedigenden Ergebnisse erzielen konnte.
Die Contents für die mobile Version befinden sich auf dem Server in einem Extraverzeichnis /mobile/. In den Verzeichnissen für die herkömmliche Ausgabe im Browser auf dem PC sind (weil es ja nur eine Ergänzung des Angebots ist) teilweise die gleichen Artikel zu finden.
Nun habe ich, um doppelten Content zu vermeiden, das /mobile/-Verzeichnis für alle Crawler/Robots in der robots.txt gesperrt und einen zweiten Eintrag angelegt, der das Verzeichnis /mobile/ z. B. für den mobilen Googlebot erreichbar macht, weil die mobilen Seiten ja auch nur in den mobilen Index von Google reinsollen.
Nun möchte ich eure Einschätzungen: Reicht meine Maßnahme um speziell bei Google die Entstehung von doppeltem Content zu verhindern?
Interessiere mich für eure Meinungen
