Seite 1 von 1

Wordpress und duplicate content?

Verfasst: 10.08.2005, 02:02
von Chris2005
Hallo,

konnte hier im Forum dazu noch nix finden. Habe mir kürzlich mal Wordpress installiert und muss sagen, dass mir die Software relativ gut gefällt. Vor allem die SuMa-freundlichen URLs per Mausklick :)

Wie sieht das bei dieser Blog Software eigentlich mit duplicate content aus? Die einzelnen Posts sind (wenn auch nur teilweise) über verschiedene URLs erreichbar.

1.) Von der Startseite werden die einzelnen Posts mit der Titel-URL verlink (also /blog/Dies-ist-eine-Testseite.html).

2.) Dann befindet sich dieser Beitrag ebenfalls in der Rubrik "Testbeitrag" (dort als verkürzter Post).

3.) Ebenso wird er (zumindestens temporär) auf der Hauptseite /blog/ dargestellt.

4.) Das Monatsarchiv habe ich per robots.txt ausgeklammert, da dort die Posts ebenfalls nochmal auftauchen würden.

Im Endeffekt ist der Content somit 3 mal unter verschiedenen URLs erreichbar. Gibt es damit ein DC Problem? Konnte bei den mir bekannten Blogs (zugegeben es sind nicht viele) keine verwertbare robots.txt finden.

Wie sind da Eure Erfahrungen?

Gruss
Chris

Verfasst:
von

Wordpress und duplicate content?

Verfasst: 10.08.2005, 04:24
von Southmedia
Ich frag mich wieso auf einmal jegliches wiederholte Auftauchen von Textstücken schlecht sein soll - dafür gibt es doch keinerlei Anzeichen.

Unpraktisch wäre nur wenn 2 gleiche html-Seiten unter 2 verschiedenen URLs abrufbar wären, dann würde ich vielleicht was gegen tun - aber so absolut kein Problem.

Wordpress und duplicate content?

Verfasst: 10.08.2005, 11:03
von Chris2005
Hallo Jan,

Naja, es ist mir nicht ganz klar, ab wann der DC Filter greift. Da die entsprechenden Textstücke schon relativ gross sind, tendiere ich schon ein bisschen in Richtung DC.

Die Seiten sind aber nicht EXAKT gleich, sondern nur Teilmengen voneinander.

Verfasst:
von

Wordpress und duplicate content?

Verfasst: 10.08.2005, 11:27
von Southmedia
[...] der DC Filter [...]
Sowas gibts? :o

Wordpress und duplicate content?

Verfasst: 10.08.2005, 11:52
von Chris2005
Streng genommen ja. :) (die Dinger sind hochwirksam - kann ich jedem nur bei HF Störungen emfpehlen.)

Spass beiseite: Dann ersetze "DC Filter" durch die Umschreibung: "[...] , es ist mir nicht ganz klar, ab welcher Textmenge Google Inhalte als DC betrachtet. [...]"

Wordpress und duplicate content?

Verfasst: 10.08.2005, 11:55
von Southmedia
Gibt es irgendwo von Google ein Statement dass euer sogenannter "DC" dazu führt dass Seiten aus dem Index fliegen oder schlechter gelistet sind?
Gibt es überhaupt von irgend jemandem eine wirkliche Untersuchung davon?

Ich zweifel mal beides an und behaupte dass "DC" einfach oft die einfachste Erklärung ist.
Mein Post "Standarddomain definieren" hilft zwar DC zu vermeiden, eigentlich ist die paar Zeilen für die .htaccess jedoch da dafür zu sorgen dass alle Energien auf genau 1 Domain gebündelt werden, mit allen Auswirkungen.

Re: Wordpress und duplicate content?

Verfasst: 10.08.2005, 12:11
von Chris2005
Southmedia hat geschrieben:Gibt es irgendwo von Google ein Statement dass euer sogenannter "DC" dazu führt dass Seiten aus dem Index fliegen oder schlechter gelistet sind?
Gibt es überhaupt von irgend jemandem eine wirkliche Untersuchung davon?
Ja. Denn bei einem gemoddeten phpBB (ohne robots.txt) wird zwar erstmal alles mögliche indiziert und gelistet (mit Snippet und Cache), aber langsam aber sicher schmeisst Google die Daten wieder aus dem Index. Die Daten tauchen dann nur noch als URL only auf und sind somit (in aller Regel) wertlos fürs Ranking. Bei Verwendung einer robots.tx bleiben die relevanten Daten gelistet.

Es wirken sicherlich viele Faktoren auf die Frage, ob eine Domain fliegt, oder nicht. Wenn Du PR9 oder PR10 hast, kannst Du wahrscheinlich DC produzieren ohne Ende (Narrenfreiheit). Aber mit PR3 oder PR4 wäre ich da vorsichtig.

Man müsste wirklich mal eine Testreihe fahren. Möchte dafür aber ungerne eine Domain opfern :)

Wordpress und duplicate content?

Verfasst: 10.08.2005, 12:16
von Jojo
Google hat doch ein grosses Interesse daran DC in den SERPs zu vermeiden und tut dies meiner Meinung nach auch. Dabei geht es aber weniger um DC von einer Website als eher um DC von verschiedenen Domains.