Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

doppelter Content - open Content

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Padarin
PostRank 2
PostRank 2
Beiträge: 41
Registriert: 12.04.2004, 23:51

Beitrag von Padarin » 02.03.2005, 22:13

Hi, ho...

Nehmen wir mal an ich wollte auf einer Webseite eine Menge Texte (Märchen, Romane etc.) aus dem gutenberg-project einstellen. Würde diese Seite dann Probs bekommen da ihr content als "doppelt" zu der das gutenberg projects bzw. anderer Seiten die ebenfalls diese Texte beinhalten - gewertet wird?

Ich hoffe ich habe mich verständlich ausgedrückt.

Gruß, Padarin

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 03.03.2005, 03:00

du bekommst genau die gleichen probleme, die dmoz- und wikipedia-klone bekommen: slow death.
btw wusste ich nicht, dass gutenberg-texte open content sind, bist du sicher? ich meine, ich hätte mal gegenteiliges gelesen.

Padarin
PostRank 2
PostRank 2
Beiträge: 41
Registriert: 12.04.2004, 23:51

Beitrag von Padarin » 03.03.2005, 17:50

Hi Manute,

warum slow death?

Das deutsche "Gutenberg" ist nicht open content! Da hat ne privatfinger die Finger drauf - das gutenberg-project.org schon - ähh - ich les das aber besser nochmal nach!

Aber nochmal gefragt: wraum wird die Seite einen langsamen Tod sterben?

Gruß, Padarin

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 03.03.2005, 18:02

gutenberg-project.org
https://www.gutenberg-project.org/ - geht nicht, kenn ich auch nicht, was meinst du?

Padarin
PostRank 2
PostRank 2
Beiträge: 41
Registriert: 12.04.2004, 23:51

Beitrag von Padarin » 03.03.2005, 18:14

https://www.gutenberg.org müsste gehen...

und

https://de.wikipedia.org/wiki/Project_Gutenberg

aber warum nu "slow death"?

Ist die Gefahr auch gegeben wenn ich so ca. 40% eigenen Content habe?


Gruß,

Padarin

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 03.03.2005, 18:30

die texte sind schon seit einiger zeit hier drauf: https://www.fullbooks.com/
du hast also nur noch duplikate, die sich meist nicht lange im index halten.

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 03.03.2005, 18:43

@padarin

es gibt genügend Gegenbeispiele, alles zu finden hier im Board. Es gibt welche die behaupten, sie würden sich seit Jahren des doppelten Contents erfreuen und andere, die sich als abgestraft fühlen. Eine dritte Gruppe spricht von schwankenden Positionen dieser Seiten, mal sei die eine, dann wieder die andere Doppelseite gut gelistet...und alles schön im Gegentakt. Nimm Dir das raus was Du persönlich vertreten kannst. Wenn Du aber etwas risikofreudiger bist, machst Du einfach Probe auf's Exempel. Ich persönlich sehe es nicht ganz so eng, mit Textbeimischung eher sogar positiv... it's up to you...

visions4
PostRank 9
PostRank 9
Beiträge: 1070
Registriert: 04.08.2004, 12:13
Wohnort: Österreich

Beitrag von visions4 » 03.03.2005, 18:46

@manute

naja, ich kenn da einige clone welche bereits seit langem solide existieren u. auch gute pr-werte erzielen.

visions4
PostRank 9
PostRank 9
Beiträge: 1070
Registriert: 04.08.2004, 12:13
Wohnort: Österreich

Beitrag von visions4 » 03.03.2005, 18:47

warst du wieder schneller als ich mario :evil:

:lol:

Padarin
PostRank 2
PostRank 2
Beiträge: 41
Registriert: 12.04.2004, 23:51

Beitrag von Padarin » 04.03.2005, 01:00

Danke für die Antworten!

ABER eine Frage hab ich noch:

Wieviele Wörter müsste man - theoretisch - verändern damit google einen Text nicht mehr als Replika erkennt.

Gibts da Erfahrungswerte in Prozent etc.?

Nicht das man mich falsch versteht ich will keine opencontent Texte verändern - es geht mir ums Prinzip.

Gruß, Padarin

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 04.03.2005, 07:34

@padarin

wenn sich die SEO-Gemeinde schon nicht einig ist über 100% doppelten Content, dann wird auch niemand eine nur halbwegs zuverlässige Zahl nennen können. Alles andere wäre "Kaffeesatzlesen".

visions4
PostRank 9
PostRank 9
Beiträge: 1070
Registriert: 04.08.2004, 12:13
Wohnort: Österreich

Beitrag von visions4 » 04.03.2005, 10:30

genaue werte gibts sicher nicht.

einfach probieren oder eben nicht :wink:

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 04.03.2005, 10:49

Es spielen weitere Faktoren eine Rolle, z.B. der Linkabstand.

Sind Seiten mit gleichem Content direkt verlinkt, wird die Freude nur kurz währen...

Ausserdem ist bekannt, dass G** gerade an diesem Problem arbeitet (siehe Interview mit der Chefentwicklerin von G**, Patentanmeldung...) wurde hier auch schon diskutiert.

Nach meiner Beobachtung ist gerade bei dem Thema einiges im Fluss...

ALSO:Risikominimierung betreiben - möglichst großer Linkabstand, möglichst große eigene "Beimischungen" (falls erlaubt).

Im Übrigen kann ich mich nur den anderen Anschließen: Sicher ist nichts.

:roll:

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 04.03.2005, 11:21

wenn die Sumas doppelten Content zu eng sehen, fliegen hunderte von Millionen Seiten aus dem Index. Es gibt viele Seiten bestehend aus Tabellen (z.B. techn. Datenblätter) die sich oft kaum unterscheiden, weil es Aufzählungen sind. Deshalb kann ich mir kaum vorstellen, dass dadurch ganze Domains bestraft werden, auch nicht in Zukunft. Was mit den einzelnen Seiten passieren kann oder eben nicht, haben wir schon gelesen.

danielr
PostRank 7
PostRank 7
Beiträge: 530
Registriert: 11.11.2003, 15:12
Wohnort: Ural

Beitrag von danielr » 04.03.2005, 13:59

mal was grundlegendes dazu: vielleicht denkt ihr auch daran. ;)
ihr sollt keine datenredundanz (copy & paste) schaffen sondern guten eigenen content. nehmt euch mehr zeit für die contentbeschaffung...und das ergebnis in den serps kann in zukunft viel solider ausfallen.es wird immer viel um alle möglichen seo-"tricks" geredet, aber eigenen content schaffen ist meiner meinung nach auf dauer die am längsten währende methode. was dann an content geschaffen wird und ob es nützlich ist, ist eine andere sache. :wink:

gruß,
danielr

PS: ich stelle damit auch weblogs in frage, die des öfteren news aus anderen news in anderer form, aber mit gleichem inhalt widergeben.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag