Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wordpress und duplicate content?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 10.08.2005, 02:02

Hallo,

konnte hier im Forum dazu noch nix finden. Habe mir kürzlich mal Wordpress installiert und muss sagen, dass mir die Software relativ gut gefällt. Vor allem die SuMa-freundlichen URLs per Mausklick :)

Wie sieht das bei dieser Blog Software eigentlich mit duplicate content aus? Die einzelnen Posts sind (wenn auch nur teilweise) über verschiedene URLs erreichbar.

1.) Von der Startseite werden die einzelnen Posts mit der Titel-URL verlink (also /blog/Dies-ist-eine-Testseite.html).

2.) Dann befindet sich dieser Beitrag ebenfalls in der Rubrik "Testbeitrag" (dort als verkürzter Post).

3.) Ebenso wird er (zumindestens temporär) auf der Hauptseite /blog/ dargestellt.

4.) Das Monatsarchiv habe ich per robots.txt ausgeklammert, da dort die Posts ebenfalls nochmal auftauchen würden.

Im Endeffekt ist der Content somit 3 mal unter verschiedenen URLs erreichbar. Gibt es damit ein DC Problem? Konnte bei den mir bekannten Blogs (zugegeben es sind nicht viele) keine verwertbare robots.txt finden.

Wie sind da Eure Erfahrungen?

Gruss
Chris

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 10.08.2005, 04:24

Ich frag mich wieso auf einmal jegliches wiederholte Auftauchen von Textstücken schlecht sein soll - dafür gibt es doch keinerlei Anzeichen.

Unpraktisch wäre nur wenn 2 gleiche html-Seiten unter 2 verschiedenen URLs abrufbar wären, dann würde ich vielleicht was gegen tun - aber so absolut kein Problem.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 10.08.2005, 11:03

Hallo Jan,

Naja, es ist mir nicht ganz klar, ab wann der DC Filter greift. Da die entsprechenden Textstücke schon relativ gross sind, tendiere ich schon ein bisschen in Richtung DC.

Die Seiten sind aber nicht EXAKT gleich, sondern nur Teilmengen voneinander.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 10.08.2005, 11:27

[...] der DC Filter [...]
Sowas gibts? :o

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 10.08.2005, 11:52

Streng genommen ja. :) (die Dinger sind hochwirksam - kann ich jedem nur bei HF Störungen emfpehlen.)

Spass beiseite: Dann ersetze "DC Filter" durch die Umschreibung: "[...] , es ist mir nicht ganz klar, ab welcher Textmenge Google Inhalte als DC betrachtet. [...]"

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 10.08.2005, 11:55

Gibt es irgendwo von Google ein Statement dass euer sogenannter "DC" dazu führt dass Seiten aus dem Index fliegen oder schlechter gelistet sind?
Gibt es überhaupt von irgend jemandem eine wirkliche Untersuchung davon?

Ich zweifel mal beides an und behaupte dass "DC" einfach oft die einfachste Erklärung ist.
Mein Post "Standarddomain definieren" hilft zwar DC zu vermeiden, eigentlich ist die paar Zeilen für die .htaccess jedoch da dafür zu sorgen dass alle Energien auf genau 1 Domain gebündelt werden, mit allen Auswirkungen.

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 10.08.2005, 12:11

Southmedia hat geschrieben:Gibt es irgendwo von Google ein Statement dass euer sogenannter "DC" dazu führt dass Seiten aus dem Index fliegen oder schlechter gelistet sind?
Gibt es überhaupt von irgend jemandem eine wirkliche Untersuchung davon?
Ja. Denn bei einem gemoddeten phpBB (ohne robots.txt) wird zwar erstmal alles mögliche indiziert und gelistet (mit Snippet und Cache), aber langsam aber sicher schmeisst Google die Daten wieder aus dem Index. Die Daten tauchen dann nur noch als URL only auf und sind somit (in aller Regel) wertlos fürs Ranking. Bei Verwendung einer robots.tx bleiben die relevanten Daten gelistet.

Es wirken sicherlich viele Faktoren auf die Frage, ob eine Domain fliegt, oder nicht. Wenn Du PR9 oder PR10 hast, kannst Du wahrscheinlich DC produzieren ohne Ende (Narrenfreiheit). Aber mit PR3 oder PR4 wäre ich da vorsichtig.

Man müsste wirklich mal eine Testreihe fahren. Möchte dafür aber ungerne eine Domain opfern :)

Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 10.08.2005, 12:16

Google hat doch ein grosses Interesse daran DC in den SERPs zu vermeiden und tut dies meiner Meinung nach auch. Dabei geht es aber weniger um DC von einer Website als eher um DC von verschiedenen Domains.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag