Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Gefahr auf duplicate Content bei Kombination v. 2xWiki

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Flo
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 17.01.2007, 21:53

Beitrag von Flo » 18.01.2007, 17:02

Hi Leute,
für eine Reiseseite habe ich für verschiedene Länder Seiten erstellt, deren Inhalt eine Kombination von Artikeln aus Wikipedia und Wikitravel ist.
Meistens habe ich je nur den Artikel der beiden Seiten zu dem Land eingefügt, z.T. noch einen kleineren zusätzlichen Artikel zu einer besonderen Attraktion in der Gegend / in dem Land.

Ich denke im Extremfall ist der Inhalt (es ist recht viel) bis zu 70% auf Wikipedia zurückzuführen - im Besten Falle 50%-50%.

Gibt es da ein großes Risiko von Google wegen duplicate Content ausgefiltert zu werden?
Erkennt Google die Kombination von zwei Quellen (in dem Falle hätte ich ja nicht maximal 70%, sondern fast 100% duplicate Content), oder wird die Seite immer nur mit einer Quelle verglichen?

Hat da jemand Erfahrung? Wieviel Prozent sind okay?

Ich kenne übrigens ein Tool um die exakte Prozentzahl der Ähnlichkeit zu determinieren: https://www.webconfs.com/similar-page-checker.php
Das blöde ist nur, dass da nicht steht wieviel Prozent G00gle durchgehen lässt, und wieviel nicht

Danke! Flo.