duplicated content durch pwd geschützen bereich?
Verfasst: 21.12.2007, 12:04
Hallo,
ich höre überall, dass duplicated content ein sicherer Weg ist beim Ranking abzustürzen.
Mein Problem ist, dass ich einen riesen Haufen links habe, die nur nach dem Einloggen zu sinnvollen Seiten führen. Wer noch nicht eingeloggt ist (wie der googlebot) sieht immer den gleichen Text (nämlich die Aufforderung sich anzumelden oder einzuloggen) aber unter der URL der eigentlich gewünschten Seite.
Mein Projekt besteht jetzt seit knapp 2 Jahren und ich habe trotz dieser "gleichen Inhalte" auf unterschiedlichen Seiten bei meinen Lieblings-Keywords ein ganz ansehnliches Ranking.
Lohnt sich der Aufwand diese Links per mod_rewrite oder ähnliches in ein Unterverzeichnis linken zu lassen und dieses dann per robots.txt dem googlebot zu verbieten, damit ich noch weiter nach oben komme? Oder ist G inzwischen clever genug um diese Art duplicated content zu erkennen?
Und wo wir grade bei der robots.txt sind, kann man nur ganze Verzeichnisse ausmaskieren oder auch einzelne URLs, am besten mit Wildcards?
Frohes Fest
Sven
ich höre überall, dass duplicated content ein sicherer Weg ist beim Ranking abzustürzen.
Mein Problem ist, dass ich einen riesen Haufen links habe, die nur nach dem Einloggen zu sinnvollen Seiten führen. Wer noch nicht eingeloggt ist (wie der googlebot) sieht immer den gleichen Text (nämlich die Aufforderung sich anzumelden oder einzuloggen) aber unter der URL der eigentlich gewünschten Seite.
Mein Projekt besteht jetzt seit knapp 2 Jahren und ich habe trotz dieser "gleichen Inhalte" auf unterschiedlichen Seiten bei meinen Lieblings-Keywords ein ganz ansehnliches Ranking.
Lohnt sich der Aufwand diese Links per mod_rewrite oder ähnliches in ein Unterverzeichnis linken zu lassen und dieses dann per robots.txt dem googlebot zu verbieten, damit ich noch weiter nach oben komme? Oder ist G inzwischen clever genug um diese Art duplicated content zu erkennen?
Und wo wir grade bei der robots.txt sind, kann man nur ganze Verzeichnisse ausmaskieren oder auch einzelne URLs, am besten mit Wildcards?
Frohes Fest
Sven