Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

doppelten content vorbeugen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
marcus@localhorst
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 24.07.2005, 15:51

Beitrag von marcus@localhorst » 10.04.2006, 14:28

Hallo,
ich habe eine recht große seite in ein CMS übertragen.
der Kunde hat sehr viele domains und die seiten sind alle mehr oder weniger oft in google indiziert.

jetzt habe ich eine riesige htaccess datei, um alles auf eine domain zu leiten und die alten seiten dann wiederum auf die CMS generierten Seiten.
Das Problem ist, das CMS kann für eine Seite 3 unterschiedliche Dateinamen generieren (via rewrite), somit kann es passieren das der crawler 3 dateinamen mit gleichem inhalt erhält - das ist nicht gut, ich weiss aber auch nicht wie ich das verhindern kann :-( (von seiten des CMS muss das leider so sein)
ich kann das auch nicht zu fuss in eine htaccess schreiben, weil es einfach zuviel ist.

gibt es dafür einen lösungsansatz?

ich könnte eine google sitemap generieren, aber da ist dann auch alles doppelt drin.

danke für evt. anregungen.
marcus

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 10.04.2006, 15:24

sperr die seiten per robots.txt aus
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

marcus@localhorst
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 24.07.2005, 15:51

Beitrag von marcus@localhorst » 10.04.2006, 15:30

das hab ich hier auch gelesen, aber das sind einfach zu viele.
die seite hat ca. 300 seiten und die url kann xyz.de/1.2.0.0.0.@meine-seitenueberschrift.phtml sein, aber auch xyz.de/meine-seitenueberschrift.phtml oder xyz.de/1.2.0.0.0.phtml
je nachdem, wie das CMS die Links generiert. (keine ahnung warum das unterschiedlich ist)
vielleicht reguliert das google auch selbstständig?
:-?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 10.04.2006, 19:05

Du wirst doch wohl 300 Seiten manuell aussperren können.

marcus@localhorst
PostRank 1
PostRank 1
Beiträge: 6
Registriert: 24.07.2005, 15:51

Beitrag von marcus@localhorst » 10.04.2006, 20:55

rechtlegal hat geschrieben:Du wirst doch wohl 300 Seiten manuell aussperren können.
:robot:

äußert ungern ;-)
ausser ich entschliesse mich ein script zu programmieren, welches das für mich macht. dann brauch ich aber vermutlich doppelt zu lange...

ich hatte gehofft, es gibt eine möglichkeit die ich nicht kenne.
aber gut, vielleicht finde ich noch einen weg...

grüße
m.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag