Seite 1 von 1

duplicated content durch pwd geschützen bereich?

Verfasst: 21.12.2007, 12:04
von NagMacFeegle
Hallo,

ich höre überall, dass duplicated content ein sicherer Weg ist beim Ranking abzustürzen.
Mein Problem ist, dass ich einen riesen Haufen links habe, die nur nach dem Einloggen zu sinnvollen Seiten führen. Wer noch nicht eingeloggt ist (wie der googlebot) sieht immer den gleichen Text (nämlich die Aufforderung sich anzumelden oder einzuloggen) aber unter der URL der eigentlich gewünschten Seite.

Mein Projekt besteht jetzt seit knapp 2 Jahren und ich habe trotz dieser "gleichen Inhalte" auf unterschiedlichen Seiten bei meinen Lieblings-Keywords ein ganz ansehnliches Ranking.

Lohnt sich der Aufwand diese Links per mod_rewrite oder ähnliches in ein Unterverzeichnis linken zu lassen und dieses dann per robots.txt dem googlebot zu verbieten, damit ich noch weiter nach oben komme? Oder ist G inzwischen clever genug um diese Art duplicated content zu erkennen?

Und wo wir grade bei der robots.txt sind, kann man nur ganze Verzeichnisse ausmaskieren oder auch einzelne URLs, am besten mit Wildcards?

Frohes Fest

Sven

Verfasst:
von

Verfasst: 21.12.2007, 12:27
von marc77
les mal hier, was google selbst dazu schreibt:

https://googlewebmastercentral-de.blogs ... %20Content

Verfasst: 21.12.2007, 12:33
von unknownsoul
Normalerweise sollte "Nicht-Eingeloggte" auf eine extra Fehlerseite geleitet werden. Das wäre m.E. sinnvoller.