Seite 1 von 1

doppelten content vorbeugen

Verfasst: 10.04.2006, 14:28
von marcus@localhorst
Hallo,
ich habe eine recht große seite in ein CMS übertragen.
der Kunde hat sehr viele domains und die seiten sind alle mehr oder weniger oft in google indiziert.

jetzt habe ich eine riesige htaccess datei, um alles auf eine domain zu leiten und die alten seiten dann wiederum auf die CMS generierten Seiten.
Das Problem ist, das CMS kann für eine Seite 3 unterschiedliche Dateinamen generieren (via rewrite), somit kann es passieren das der crawler 3 dateinamen mit gleichem inhalt erhält - das ist nicht gut, ich weiss aber auch nicht wie ich das verhindern kann :-( (von seiten des CMS muss das leider so sein)
ich kann das auch nicht zu fuss in eine htaccess schreiben, weil es einfach zuviel ist.

gibt es dafür einen lösungsansatz?

ich könnte eine google sitemap generieren, aber da ist dann auch alles doppelt drin.

danke für evt. anregungen.
marcus

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

doppelten content vorbeugen

Verfasst: 10.04.2006, 15:24
von matin
sperr die seiten per robots.txt aus

doppelten content vorbeugen

Verfasst: 10.04.2006, 15:30
von marcus@localhorst
das hab ich hier auch gelesen, aber das sind einfach zu viele.
die seite hat ca. 300 seiten und die url kann xyz.de/1.2.0.0.0.@meine-seitenueberschrift.phtml sein, aber auch xyz.de/meine-seitenueberschrift.phtml oder xyz.de/1.2.0.0.0.phtml
je nachdem, wie das CMS die Links generiert. (keine ahnung warum das unterschiedlich ist)
vielleicht reguliert das google auch selbstständig?
:-?

Verfasst:
von

doppelten content vorbeugen

Verfasst: 10.04.2006, 19:05
von rechtlegal
Du wirst doch wohl 300 Seiten manuell aussperren können.

Re: doppelten content vorbeugen

Verfasst: 10.04.2006, 20:55
von marcus@localhorst
rechtlegal hat geschrieben:Du wirst doch wohl 300 Seiten manuell aussperren können.
:robot:

äußert ungern ;-)
ausser ich entschliesse mich ein script zu programmieren, welches das für mich macht. dann brauch ich aber vermutlich doppelt zu lange...

ich hatte gehofft, es gibt eine möglichkeit die ich nicht kenne.
aber gut, vielleicht finde ich noch einen weg...

grüße
m.