Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Es gibt keine "Duplicate Content-Penalty"

Suchmaschinenmarketing bzw. Suchmaschinenoptimierung Infos und News
Dragobert
PostRank 9
PostRank 9
Beiträge: 1246
Registriert: 08.02.2006, 20:40
Wohnort: Nürnberg

Beitrag von Dragobert » 26.09.2008, 00:54

"Ich halte die DC-Paranoia für absoluten Quatsch...."
Nun, ich nicht. Es geht auch nicht darum wenn jemand 1 oder 2 Seiten doppelt hat,
sondern es geht um gezielte Manipulation.

Wenn jemand (oder gar viele SEOs) nicht 2 oder 3 Seiten mehrfach hat, sondern 10 000 - 20 000
(also tausende) Duplikate hat, dann ist es eine ganz andere Geschichte.

Dann kann ich Google verstehen, dass die denken, eine handvoll Seiten reicht.
Mit tut auch der Internetnutzer (letztendlich dann auch du und ich) leid. Tausende von Webseiten
mit dem gleichen Inhalt. Und dann auch noch vom gleichen Betreiber....

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

no.f8
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 02.04.2008, 12:45

Beitrag von no.f8 » 26.09.2008, 15:12

Ich finde die DC-Geschichte von wegen Manipulation etc. gar nicht so dringend. Was den Penalty angeht: Google kann schon ganz gut unterscheiden, was z.B. News sind und was Zitate usw, die immer ein wenig oder komplett DC sind (dpa z.B.). Ob man jetzt dafür rankt oder nicht ist ne andere Geschichte.

Viel wichtiger (und darüber sagt Google nix), sind die Filter für eigenen hausgemachten DC, wie Friday schon sagt. Mannigfaltige URLs mit gleichem oder neu sortiertem Content. Hier wird es sicher den ein oder anderen Filter geben und die Geschichte mit der Gruppierung und weiterverlinkung kann ich mir kaum sehr effizient vorstellen.

s.a. https://www.whiteside-seo.de/seo/duplic ... ot-unsinn/

miccom
PostRank 6
PostRank 6
Beiträge: 484
Registriert: 24.06.2006, 18:46
Wohnort: Hamburg

Beitrag von miccom » 26.09.2008, 15:20

no.f8 hat geschrieben:Viel wichtiger (und darüber sagt Google nix), sind die Filter für eigenen hausgemachten DC, wie Friday schon sagt. Mannigfaltige URLs mit gleichem oder neu sortiertem Content. Hier wird es sicher den ein oder anderen Filter geben und die Geschichte mit der Gruppierung und weiterverlinkung kann ich mir kaum sehr effizient vorstellen.
Lies doch mal die Antworten! :roll:
BildBildBild

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Thomas B
PostRank 9
PostRank 9
Beiträge: 1810
Registriert: 04.12.2005, 12:50

Beitrag von Thomas B » 26.09.2008, 22:16

Der interne DC war noch nie das Problem, wenn man eine Webseite richtig aufgebaut oder die richtigen Plugins verwendet hat.

Das Problem ist nach wie vor der DC auf unteschiedlichen Domains - Stichwort: Content Diebstahl.

Da wird dann nicht die Domain bevorzugt, die den älteren Content hat oder die Domain die stärker ist, sondern irgenwie nach dem Zufallsprinzip gehandelt. Das muss Google endlich mal in den Griff bekommen, sonst verliert man die Lust viel Zeit in hochwertigen Content zu investieren, wenn man ihn regelmäßig umschreiben muss.

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 27.09.2008, 00:40

Thomas B hat geschrieben:Da wird dann nicht die Domain bevorzugt, die den älteren Content hat oder die Domain die stärker ist, sondern irgenwie nach dem Zufallsprinzip gehandelt. Das muss Google endlich mal in den Griff bekommen
das ist gut gesagt

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 28.09.2008, 13:49

gery hat geschrieben:oder wird dann das projekt einfach nie in den serps ranken?
im gegenteil: vielleicht rankt das deutsche forum ein bisschen (es ist ja "neu), dafür rankt jetzt plötzlich das schweizer forum nicht mehr (kommt auch darauf an, wie gut es von aussen verlinkt ist). so wie du das machen willst, würd ich's lieber nicht tun.
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

Nicos
PostRank 9
PostRank 9
Beiträge: 1900
Registriert: 30.10.2006, 11:31

Beitrag von Nicos » 30.09.2008, 10:55

@ThomasB:
Da wird dann nicht die Domain bevorzugt, die den älteren Content hat oder die Domain die stärker ist, sondern irgenwie nach dem Zufallsprinzip gehandelt.
hast Du da irgendwelche Quellen oder Beispiele? ich hatte das Problem erst 2 Mal und beide Male konnte ich es recht offensichtlich an Standardfaktoren wie Linkpop, Alter etc. festmachen! Soll heissen der Hijacker hatte in diesen Bereichen deutlichen Vorsprung! War aber vielleicht auch echt nur Zufall...... Dehalb wäre ich froh über weitere Infos und/oder Quellen!

Grüße
Nicos
Keywordmonitoring: [URL]httpss://www.DYNAPSO.com[/URL]

luzie
PostRank 10
PostRank 10
Beiträge: 4228
Registriert: 12.07.2007, 13:43
Wohnort: Hannover, Linden-Nord

Beitrag von luzie » 30.09.2008, 12:32

Da wird dann nicht die Domain bevorzugt, die den älteren Content hat oder die Domain die stärker ist, sondern irgenwie nach dem Zufallsprinzip gehandelt.
recht offensichtlich an Standardfaktoren wie Linkpop, Alter etc. festmachen! Soll heissen der Hijacker hatte in diesen Bereichen deutlichen Vorsprung!
widerspricht sich ja eigentlich, trotzdem: man sieht beides, einmal werfen sie nach dem "zufallsprinzip" raus, in anderen fällen wieder werfen sie das was deutlich "unwichtiger" (~niedriger "pr") ist raus. hier scheinen sich die kriterien "neu" ("wir nehmen die adresse, die neuer ist, also 'aktueller'") und "wichtig" ("wir nehmen die adresse die 'wichtiger' ist") so zu überlagern, dass die interpretation, warum ein inhalt auf einer adresse zugunsten des selben inhaltes auf einer anderen adresse rausgenommen wurde und nicht andersherum, unmöglich wird. genauso ist es letztlich unmöglich vorauszusagen, welche version überleben wird und welche nicht.

jedenfalls ist die unfähigkeit (oder unlust) google's ein plagiat als solches von einem original zu unterscheiden seit JAHREN bekannt, ein übler systemfehler, sie leisten damit - wie war ihr eigener ausdruck? - "proaktiv!" (jaa, sie haben eine ganz eigene sprache!) dem content-klau vorschub und kucken seelenruhig zu. die haben einfach keine lust sich darum zu kümmern, weil's für sie egal ist ("do no evil, let others do it for you"). ich frage mich schon lange, warum sie nicht jeden tag dreimal deswegen vor gericht gezerrt werden - oder werden sie und ich weiss es nur nicht?
Bilduzie - [url=httpss://plus.google.com/+HerbertSulzer/about]Google Official Bionic Top Contributor on Google Webmaster Central[/url]

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag