Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Duplicate Content

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
pangaea
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 29.07.2005, 05:04

Beitrag von pangaea » 04.08.2005, 10:36

Hallo,

Frage: Wann ist denn der "Tatbestand" des duplicate content gegeben?
1)Wenn der Text auszugsweise der gleiche ist, oder
2)wenn komplette Webseiten geklont, bzw unter verschiedenen Domains erreichbar sind.

Grund meiner Frage: Ich habe selber ein Affili.net PP laufen mit Produktlisten. Und obwohl auf Zig Seiten die gleiche Artikelbeschreibung zu finden ist, wird das brav bei "Big G" gelistet.

Andererseits wird hier im Forum DC als Todsünde angesehen.

Ich habe ein Projekt mit Tieren. Wenn ich da bei Wiki ein paar Beschreibungen von Tierarten ausleihe, fliege dann gleich ins Nirvana?

Gruß
Harry

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

holch
PostRank 6
PostRank 6
Beiträge: 410
Registriert: 08.03.2005, 20:23
Wohnort: Nürnberg

Beitrag von holch » 04.08.2005, 10:50

Darf man sich das bei Wiki eigentlich einfach mals so "ausleihen"?

wernizh
PostRank 3
PostRank 3
Beiträge: 71
Registriert: 31.01.2005, 18:55

Beitrag von wernizh » 04.08.2005, 10:51

1) ist auch schon ein Problem.

Mache folgenden Test:
- Gehe auf eine Seite wo Du denkst es könnte duplicate content geben.
- Nimm dort eine beliebige Textpassage und suche in Google nach dem
gewählten Begriff.

- Wenn Du dann einige Seiten mit gleichen Passagen findest, so ist das ein Problem. --> Dies ist mit Affiliate und Wiki eigentlich immer der Fall auch wenn man drum herum noch einiges anpasst und abändert.
Zuletzt geändert von wernizh am 04.08.2005, 10:59, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 04.08.2005, 10:57

@holch
Darf man schon, man sollte dies allerdings entsprechend kennzeichnen. Bei der Wikipedia finden sich dazu die "Richtlinien".


Ich halte es für keine lohnende Idee Wikipedia-Texte zu übernehmen. Mach dir besser die Arbeit eigene Texte zu schreiben. Dabei kannst du natürlich auch den Wiki-Artikel als Informationsquelle nehmen.

pangaea
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 29.07.2005, 05:04

Beitrag von pangaea » 04.08.2005, 11:19

Hallo,

danke schon mal für die Antworten.

Ja, ich finde etliche Seiten mit den gleichen Artikelbeschreibungen. Nehmen wir mal z.B. Online-Reisebüro. Kann ja nicht sein, dass nur einer das Riu Palace Ballermann anbieten kann, die Hotelbeschreibung ist bestimmt auf etlichen Seiten die gleiche.
Daher meine "Überlegung" ob das mit dem Duplicate Content gar nicht so brandgefährlich ist.
Das mit Wiki war nur ein Beispiel, es geht mehr um die Artikel texte.

Zumal, ich kenne die Zahlen nicht, es ja auch für Google Datacenters fast unmöglich ist jede Webseite mit jeder anderen Webseite zu vergleichen. Nehmen wir mal an, es gibt eine Million Webseiten zum Thema Handy und Google vergleicht diese untereinander müsste eine Zahl mit mindestens 10 nullen Prüfvorgänge rauskommen.

Und das nur für ein Keyword.

Gruß
Harry

wernizh
PostRank 3
PostRank 3
Beiträge: 71
Registriert: 31.01.2005, 18:55

Beitrag von wernizh » 04.08.2005, 11:24

Google macht das geht einfacher.

a) jemand sucht etwas
b) Google liefert die Suchresultate
c) Google selber analysiert die Suchresultate
Wenn dann mehrere Ergebnisse (fast) gleich sind,
dann ist es DC oder zumindest DC verdächtig.
Somit entfällt es jede Seite gegen jede zu vergleichen.
Für Google genügt sich die paar Suchresultate genauer anzuschauen.

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 04.08.2005, 11:40

probier www.copyscape.com ... da siehst Du, wieviel verglichen werden kann.

Es macht für Google keinen Sinn, unendlich mal den gleichen Inhalt in seinen Serps zu haben. Das gilt für Affili- feeds genauso wie z.B. dpa Meldungen. In den letzten Monaten ist google da auch immer besser geworden und hat immer mehr seiten, die es einfach doppelt gibt, aus dem Index genommen ... zuletzt einen ganzen Haufen von DMOZ und WIKI Clonen. Und wenn heute noch diese Produktlisten vielfach indexiert sind, so wird es im interesse von besseren Suchergebnissen bei Google das Interesse geben, den Algo so anzupassen, das die irgendwann in die "zusätzlichen Ergebnisse" gelangen und nicht mehr vorne bei den Serps mitspielen. Da haben wir halt bei weitem noch nicht das Ende der Fahnenstange.

pangaea
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 29.07.2005, 05:04

Beitrag von pangaea » 04.08.2005, 12:12

Sicherlich, ich stimme Dir zu, dass es nicht in Googles Interesse ist, bei den ersten 100 Ergebnissen die gleichen DMOZ clones zu haben.

Andererseits, wenn ich aber ein Handy suche, nehmen wir mal an "Nokia 1234", denke ich aber, dass die Artikelbeschreibung und die technischen daten zu 99% gleich den Original Nokia daten sind. Wenn es also 200 Händler gibt die das Teil verkaufen, muss ja so sein, dass immer der gleiche Text drin steht. Der kann ja nicht die technischen Daten ändern, nur damit er keinen DC hat.

Und wenn ich das Hääääändy bei Google oder sonst wo suche, dann will ich auch die 200 Händler im Angebot in den SERPS haben und vergleichen können und nicht nur einen oder zwei, weil google die anderen eliminiert hat. Sonst brauch ich ja das Internet nicht, sondern geh in den nächsten Laden.

Gruß
Harry

wernizh
PostRank 3
PostRank 3
Beiträge: 71
Registriert: 31.01.2005, 18:55

Beitrag von wernizh » 04.08.2005, 12:45

Da stimme ich Dir nicht ganz zu.
Wenn ich "Nokia 1234" suche, möchte ich vielleicht keines kaufen, sondern habe eine technische Frage. Dann möchte ich mich nicht 100te von Händler durchwühlen müssen.

Die DC werden ja auch nicht ganz gelöscht sondern nach hinten verschoben. Wenn Du dann mit dem richtigen Stichwort suchst, z.b. "Nokia 1234 Ortschaftxxx" dann wirst Du schon den Händler in Deinem Ort noch finden.

pangaea
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 29.07.2005, 05:04

Beitrag von pangaea » 04.08.2005, 12:54

Gut wir können ja auf den Suchbegriff auf "Nokia 1234 online bestellen" ändern. Außerdem will ich den ja nicht beim händler um die Ecke kaufen, zu dem kann ich ja hingehen, sondern die Preise im Internet vergleichen.

Gruß
Harry

Rainer1970
PostRank 6
PostRank 6
Beiträge: 414
Registriert: 13.02.2005, 19:03

Beitrag von Rainer1970 » 04.08.2005, 12:58

Da stimme ich Dir nicht ganz zu.
Wenn ich "Nokia 1234" suche, möchte ich vielleicht keines kaufen, sondern habe eine technische Frage. Dann möchte ich mich nicht 100te von Händler durchwühlen müssen.
Wenn deine technische Fragen mit den allgemeinen technischen Produktdaten erklärt sind, dann brauchst du doch nur eine URL anklicken. Und wer kaufen will, der hat halt dann mehr Auswahl.

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 04.08.2005, 13:32

Ich glaube nicht, das jemand der Kaufen wollte, 200 mal den gleichen Artikel zum gleichen Preis von verschiedenen Affiliseiten sehen will, die dann doch nachher alle auf die selben 5 Seiten verlinken ... die 5 Seiten würden dann locker reichen, der Rest ist einfach nur doppelt. Und wenn sich das dann doch jemand anschauen will, dann kann er ja durch die serps durchklicken ... weiter hinten kommen ja immer mehr von diesen doppelten Sachen. Und niemandem wird verboten, zum 1000sten Mal die gleiche "Händy Produktbeschreibung" zu copieren und zu veröffentlichen ...

Aber unabhängig davon: Eigenständiger Content steht nicht auf der "Abschussliste" und kann sich positiv auf Serps auswirken

Carsten
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 15.12.2003, 11:42

Beitrag von Carsten » 08.08.2005, 05:14

Hallo,

vielleicht liegt es daran das Doppelter Content nur unter einer Domain schädlich ist oder als solcher angesehen wird. Das würde erklären warum PP Sites nicht in den Filter fallen.

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 08.08.2005, 09:50

nach meiner Beobachtung fallen immer mehr Affiliseiten aus den Serps oder werden nach hinten durchgereicht, wenn Content auf Ihnen vom PP geliefert wird und wenig eigener Content vorhanden ist. Genau wie bei DWPs hat google da noch lange nicht alles "aussortiert", wird aber besser im Erkennen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag