Seite 1 von 1

Duplicate Content

Verfasst: 04.08.2005, 10:36
von pangaea
Hallo,

Frage: Wann ist denn der "Tatbestand" des duplicate content gegeben?
1)Wenn der Text auszugsweise der gleiche ist, oder
2)wenn komplette Webseiten geklont, bzw unter verschiedenen Domains erreichbar sind.

Grund meiner Frage: Ich habe selber ein Affili.net PP laufen mit Produktlisten. Und obwohl auf Zig Seiten die gleiche Artikelbeschreibung zu finden ist, wird das brav bei "Big G" gelistet.

Andererseits wird hier im Forum DC als Todsünde angesehen.

Ich habe ein Projekt mit Tieren. Wenn ich da bei Wiki ein paar Beschreibungen von Tierarten ausleihe, fliege dann gleich ins Nirvana?

Gruß
Harry

Verfasst:
von

Verfasst: 04.08.2005, 10:50
von holch
Darf man sich das bei Wiki eigentlich einfach mals so "ausleihen"?

Duplicate Content

Verfasst: 04.08.2005, 10:51
von wernizh
1) ist auch schon ein Problem.

Mache folgenden Test:
- Gehe auf eine Seite wo Du denkst es könnte duplicate content geben.
- Nimm dort eine beliebige Textpassage und suche in Google nach dem
gewählten Begriff.

- Wenn Du dann einige Seiten mit gleichen Passagen findest, so ist das ein Problem. --> Dies ist mit Affiliate und Wiki eigentlich immer der Fall auch wenn man drum herum noch einiges anpasst und abändert.

Verfasst:
von

Duplicate Content

Verfasst: 04.08.2005, 10:57
von Jojo
@holch
Darf man schon, man sollte dies allerdings entsprechend kennzeichnen. Bei der Wikipedia finden sich dazu die "Richtlinien".


Ich halte es für keine lohnende Idee Wikipedia-Texte zu übernehmen. Mach dir besser die Arbeit eigene Texte zu schreiben. Dabei kannst du natürlich auch den Wiki-Artikel als Informationsquelle nehmen.

Duplicate Content

Verfasst: 04.08.2005, 11:19
von pangaea
Hallo,

danke schon mal für die Antworten.

Ja, ich finde etliche Seiten mit den gleichen Artikelbeschreibungen. Nehmen wir mal z.B. Online-Reisebüro. Kann ja nicht sein, dass nur einer das Riu Palace Ballermann anbieten kann, die Hotelbeschreibung ist bestimmt auf etlichen Seiten die gleiche.
Daher meine "Überlegung" ob das mit dem Duplicate Content gar nicht so brandgefährlich ist.
Das mit Wiki war nur ein Beispiel, es geht mehr um die Artikel texte.

Zumal, ich kenne die Zahlen nicht, es ja auch für Google Datacenters fast unmöglich ist jede Webseite mit jeder anderen Webseite zu vergleichen. Nehmen wir mal an, es gibt eine Million Webseiten zum Thema Handy und Google vergleicht diese untereinander müsste eine Zahl mit mindestens 10 nullen Prüfvorgänge rauskommen.

Und das nur für ein Keyword.

Gruß
Harry

Duplicate Content

Verfasst: 04.08.2005, 11:24
von wernizh
Google macht das geht einfacher.

a) jemand sucht etwas
b) Google liefert die Suchresultate
c) Google selber analysiert die Suchresultate
Wenn dann mehrere Ergebnisse (fast) gleich sind,
dann ist es DC oder zumindest DC verdächtig.
Somit entfällt es jede Seite gegen jede zu vergleichen.
Für Google genügt sich die paar Suchresultate genauer anzuschauen.

Duplicate Content

Verfasst: 04.08.2005, 11:40
von buttheads
probier www.copyscape.com ... da siehst Du, wieviel verglichen werden kann.

Es macht für Google keinen Sinn, unendlich mal den gleichen Inhalt in seinen Serps zu haben. Das gilt für Affili- feeds genauso wie z.B. dpa Meldungen. In den letzten Monaten ist google da auch immer besser geworden und hat immer mehr seiten, die es einfach doppelt gibt, aus dem Index genommen ... zuletzt einen ganzen Haufen von DMOZ und WIKI Clonen. Und wenn heute noch diese Produktlisten vielfach indexiert sind, so wird es im interesse von besseren Suchergebnissen bei Google das Interesse geben, den Algo so anzupassen, das die irgendwann in die "zusätzlichen Ergebnisse" gelangen und nicht mehr vorne bei den Serps mitspielen. Da haben wir halt bei weitem noch nicht das Ende der Fahnenstange.

Duplicate Content

Verfasst: 04.08.2005, 12:12
von pangaea
Sicherlich, ich stimme Dir zu, dass es nicht in Googles Interesse ist, bei den ersten 100 Ergebnissen die gleichen DMOZ clones zu haben.

Andererseits, wenn ich aber ein Handy suche, nehmen wir mal an "Nokia 1234", denke ich aber, dass die Artikelbeschreibung und die technischen daten zu 99% gleich den Original Nokia daten sind. Wenn es also 200 Händler gibt die das Teil verkaufen, muss ja so sein, dass immer der gleiche Text drin steht. Der kann ja nicht die technischen Daten ändern, nur damit er keinen DC hat.

Und wenn ich das Hääääändy bei Google oder sonst wo suche, dann will ich auch die 200 Händler im Angebot in den SERPS haben und vergleichen können und nicht nur einen oder zwei, weil google die anderen eliminiert hat. Sonst brauch ich ja das Internet nicht, sondern geh in den nächsten Laden.

Gruß
Harry

Duplicate Content

Verfasst: 04.08.2005, 12:45
von wernizh
Da stimme ich Dir nicht ganz zu.
Wenn ich "Nokia 1234" suche, möchte ich vielleicht keines kaufen, sondern habe eine technische Frage. Dann möchte ich mich nicht 100te von Händler durchwühlen müssen.

Die DC werden ja auch nicht ganz gelöscht sondern nach hinten verschoben. Wenn Du dann mit dem richtigen Stichwort suchst, z.b. "Nokia 1234 Ortschaftxxx" dann wirst Du schon den Händler in Deinem Ort noch finden.

Duplicate Content

Verfasst: 04.08.2005, 12:54
von pangaea
Gut wir können ja auf den Suchbegriff auf "Nokia 1234 online bestellen" ändern. Außerdem will ich den ja nicht beim händler um die Ecke kaufen, zu dem kann ich ja hingehen, sondern die Preise im Internet vergleichen.

Gruß
Harry

Verfasst: 04.08.2005, 12:58
von Rainer1970
Da stimme ich Dir nicht ganz zu.
Wenn ich "Nokia 1234" suche, möchte ich vielleicht keines kaufen, sondern habe eine technische Frage. Dann möchte ich mich nicht 100te von Händler durchwühlen müssen.
Wenn deine technische Fragen mit den allgemeinen technischen Produktdaten erklärt sind, dann brauchst du doch nur eine URL anklicken. Und wer kaufen will, der hat halt dann mehr Auswahl.

Duplicate Content

Verfasst: 04.08.2005, 13:32
von buttheads
Ich glaube nicht, das jemand der Kaufen wollte, 200 mal den gleichen Artikel zum gleichen Preis von verschiedenen Affiliseiten sehen will, die dann doch nachher alle auf die selben 5 Seiten verlinken ... die 5 Seiten würden dann locker reichen, der Rest ist einfach nur doppelt. Und wenn sich das dann doch jemand anschauen will, dann kann er ja durch die serps durchklicken ... weiter hinten kommen ja immer mehr von diesen doppelten Sachen. Und niemandem wird verboten, zum 1000sten Mal die gleiche "Händy Produktbeschreibung" zu copieren und zu veröffentlichen ...

Aber unabhängig davon: Eigenständiger Content steht nicht auf der "Abschussliste" und kann sich positiv auf Serps auswirken

Verfasst: 08.08.2005, 05:14
von Carsten
Hallo,

vielleicht liegt es daran das Doppelter Content nur unter einer Domain schädlich ist oder als solcher angesehen wird. Das würde erklären warum PP Sites nicht in den Filter fallen.

Duplicate Content

Verfasst: 08.08.2005, 09:50
von buttheads
nach meiner Beobachtung fallen immer mehr Affiliseiten aus den Serps oder werden nach hinten durchgereicht, wenn Content auf Ihnen vom PP geliefert wird und wenig eigener Content vorhanden ist. Genau wie bei DWPs hat google da noch lange nicht alles "aussortiert", wird aber besser im Erkennen.