Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

ab wann spricht man von "duplicate Content"??

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 05.09.2005, 13:22

"Willkür" gibt es bei Rechenprozessen nicht.
Aber einen tieferen Sinn muss es deswegen auch nicht geben. Es kann auch die Willkür von demjenigen sein, der den Algo entwickelt hat.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 05.09.2005, 13:50

@depp ich

klar, da kannst Du recht haben. Ich persönlich glaube aber nicht, das die Entwicklerteams für Veränderungen des Suchalgorithmus zum Ziel haben, zufällige oder (is ja noch härter) willkürliche Ergebnisse zu liefern.

Ich unterstelle bei Google einen grundlegenden "tieferen Sinn": Die möglichst relevantesten Suchergebnisse für den Suchenden zu präsentieren. Was "Relevant" in diesem Zusammenhang bedeutet, definiert Google für die eigene Dienstleistung selbst - ob uns das so passt oder nicht.

Veränderungen in Suchergebnissen ... und um das geht es ja ... sind damit Anzeichen für Veränderungen in Bewertungen/Berechnungen für "Relevanz" nach Google-Sicht. Das, ws gestern dabei galt muss heute nicht mehr weiter gelten.

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 05.09.2005, 13:56

@bydlo
Hatte Dein Post übersehen...
auch bei meiner eigenen wie auch bei manchen sites die ich betreue haben viele seiten die unter "übrsprungene ergebnisse" gelistet werden toppositionen.
Wenn Das so ist, dann habe ich einfach andere erfahrungen gemacht. Gerne lasse ich mich eines besseren belehren. Ich persönlich kenne dafür kein einziges Beispiel von einer meiner Seiten oder einer Kundenseite.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 05.09.2005, 14:39

Für mich sind die übersprungen Seiten auf den ersten Blick die, die Google nicht so toll liebt. Warum auch immer. Gerade weil die Site Abfrage ja praktisch nur von SEOs benutzt wird, gehe ich auch nicht von großen Offenbarungen aus.

Gibt es eigentlich irgendein Tool, mit dem ich schnell mal feststellen kann, welche die übersprungenen Seiten eigentlich sind? Das Zählen ist etwas mühsam...

bydlo
PostRank 9
PostRank 9
Beiträge: 2209
Registriert: 11.12.2004, 01:03
Wohnort: Berlin

Beitrag von bydlo » 05.09.2005, 15:06

@ buttheads
nimm doch als beispiel einfach abakus.
bei ner site abfrage wirst du feststellen das ca 100 ergebnisse nicht und ca 316.000 ergebnisse innnerhalb der übersprungenen ergebnisse liegen.
trotzdem sind diese ergebnisse bei einer ganz normalen KWsuche gut gelistet.
gruss axel

Cura
PostRank 10
PostRank 10
Beiträge: 4139
Registriert: 23.02.2004, 07:18

Beitrag von Cura » 05.09.2005, 15:52

Nach unseren Beobachtungen ist duplicate Content - nicht falsch eingesetzt - sogar förderlich und arbeitssparend. Dies auch in grosser Menge.

Ob Google DC erkennt ist nach unserer Meinung mehr als fraglich, wenn die Seiten sich nicht gerade auf den Füssen stehen.

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 05.09.2005, 17:03

@ bydlo
Ich finde keine Seite, auch nicht von Abakus, die unter ihrem Keyword top gelistet ist und nicht bei der Site: Abfrage auftaucht. Keine von meinen Seiten in den zusätzlichen Ergebnissen tut das. Ist halt nur meine Erfahrung - wie gesagt, ich würde gerne eines besseren belehrt werden.

@ Cura
Nach unseren Beobachtungen ist duplicate Content - nicht falsch eingesetzt - sogar förderlich und arbeitssparend. Dies auch in grosser Menge.
Wie geht das? Was ist "falsch eingesetzt"? beziehst Du Dich auf DC von der gleichen Domain oder Content, der auf vielen Domains vorhanden ist? Ist die Beobachtung längerfristig oder bezieht sie sich auf den kurzfristigen Newsbereich - und unerhelblich für längere positionen in den Serps?

Cura
PostRank 10
PostRank 10
Beiträge: 4139
Registriert: 23.02.2004, 07:18

Beitrag von Cura » 05.09.2005, 17:54

@buttheads -

"Falsch oder richtig eingesetzt" - möchte ich hier aus verständlichen Gründen nicht näher definieren.

Die Beobachtungen sind längerfristig und beziehen sich auch auf DC unter gleicher Domain.

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 05.09.2005, 18:10

Cura hat geschrieben:@buttheads -

"Falsch oder richtig eingesetzt" - möchte ich hier aus verständlichen Gründen nicht näher definieren.

Die Beobachtungen sind längerfristig und beziehen sich auch auf DC unter gleicher Domain.
Schade eigentlich, ich hatte mich eigentlich schon auf Deine DC-Infos gefreut.

besserwisser
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 05.10.2004, 13:14
Wohnort: Monstern

Beitrag von besserwisser » 05.09.2005, 20:28

Möchte mal ein Beispiel geben, (wie ich die Sache mit Dup Content sehe und den tieferen Sinn dahinter)

https://www.genaxxon.com/catalogue/mole ... aroses.htm

Auf dieser Seite wird ersichtlich, dass datenbankgenerierter Code vorliegt und von den meisten Produkten mehrere Seiten existieren, die sich nur in der Packungsgröße unterscheiden.
Hier wird doch klar, dass auf diese Weise schnell mal sehr viele Seiten entstehen können, die alle gleich sind, bloss wenige Zahlen anders. Alles zu indizieren ist nicht unbedingt nötig und hilft auch dem Seiteninhaber kaum. Eine Suchmaschine könnte durch Vergleiche feststellen, was so ähnlich ist, dass es sich nicht zu indizieren lohnt -> Dup content.
noch schlimmer:
https://www.google.de/search?hl=en&q=si ... gle+Search

Vielleicht muss man sich mal von der Vorstellung lösen, dass google hier irgendwelchen spammenden Seos die Seiten zunichte machen möchte.
Grüße :D
Besserwisser

ff-webdesigner
PostRank 6
PostRank 6
Beiträge: 433
Registriert: 30.01.2004, 07:34
Wohnort: Regensburg

Beitrag von ff-webdesigner » 06.09.2005, 12:24

ah...endlich wieder mal dc :-)

meine meinung: google ist relativ dumm, was dc angeht. das liegt nicht an google, sondern an der natur der sache: wenn man beispielsweise einen festen string in einem festgelegten textabschnitt sucht dann ist der rechenaufwand relativ gering. wenn man allerdings einen string nicht genau bestimmter länge im selben textabschnitt sucht, so ist der rechenaufwand um ein vielfaches höher.

ich denke, google kann unmöglich jede seite mit jeder seite vergleichen, schauen: satz 1, kommst du auf seite 2 vor? satz 1+2, kommst du auf seite 2 vor etc.

was google relativ schnell schnallt - bewiesen am experiment - wenn du ähnliche seiten hast, die genau die selben keywords/ descripction verwenden, dann straft google das ab, zuerst durch anzeige von nur link zur seite, später evtl. durch listung unter "weitere ergebnisse".

mit deinen eigenen texten kannst du machen was du willst: nimm 20 blöcke a 200 worte, kombiniere diese wild zu 1000 seiten: google schnallt's nicht, solange die keywords/desc/title anders sind.

verwendest du allerdings externe texte (affiliate, feeds oä), die auf vielen anderen seiten verwandt werden, ist die gefahr der exkommunizierung zwecks dc viel höher. warum, weiss ich auch nicht. jemand ne idee?
ff-webdesigner.de: Webdesign aus Regensburg und München

Suche keine Linkpartner oder indische SEOs!

twitch
PostRank 9
PostRank 9
Beiträge: 1222
Registriert: 09.04.2005, 14:01

Beitrag von twitch » 06.09.2005, 15:03

Ich denke Google erkennt DC.
Ich hatte 2 Domains mit dem selben Content. Nach 2 Monaten war die eine Domain verbrannt und jegliche Seiten aus dem Index verschwunden.
Es hat mich 4 Monate arbeit gekostet die Domain wieder in die SERPS zu bekommen. Allerdings mit einem total anderen Content.

SEO - History, Tools, Videos, Downloads und mehr auf https://www.seo-ranking-tools.de/

linkbote
PostRank 2
PostRank 2
Beiträge: 63
Registriert: 07.07.2005, 22:00

Beitrag von linkbote » 06.09.2005, 15:17

Hallo
nichts für ungut aber ihr kennt diese Seiten alle. Es sind diese Seiten wo man 470000 Euro in kürzester Zeit verdienen kann oder auch nicht, das ist hier nicht das Thema. Nur haben alle diese Seiten identischen Inhalt, identischer geht es kaum, und einige gibt es schon lange sind nicht verbrannt oder irgendwie bestraft. Ist nur so eine Beobachtung von mir.

Mit freundlichem Gruß
linkbote

Cura
PostRank 10
PostRank 10
Beiträge: 4139
Registriert: 23.02.2004, 07:18

Beitrag von Cura » 06.09.2005, 15:38

@rechtlegal –

In Ansätzen hast Du ja jetzt Deine Antwort, nur - das was „ff-webdesigner“ hier darstellt ist allzu oft nur von kurzem Erfolg.

Die Konsequenz ist meist, dass die Seiten komplett aus dem Index fliegen. Ob das nun am logischen Aufbau der Sortierung oder am Spamreport liegt ist noch nicht so klar erkennbar.

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 06.09.2005, 16:55

Cura hat geschrieben:@rechtlegal

In Ansätzen hast Du ja jetzt Deine Antwort, nur - das was ff-webdesigner hier darstellt ist allzu oft nur von kurzem Erfolg.

Die Konsequenz ist meist, dass die Seiten komplett aus dem Index fliegen. Ob das nun am logischen Aufbau der Sortierung oder am Spamreport liegt ist noch nicht so klar erkennbar.
ff-webdesigner hat geschrieben:verwendest du allerdings externe texte (affiliate, feeds oä), die auf vielen anderen seiten verwandt werden, ist die gefahr der exkommunizierung zwecks dc viel höher. warum, weiss ich auch nicht. jemand ne idee?
Meine Frage geht in die gleiche Richtung wie die zitierte Ausführung von ff-webdesigner:

Einige Seiten wie openPR, competence-center (oder heißt es competence-site?) etc. nutzen - erlaubt - meine aktuellen Infos. Der Text (=Inhalt) ist identisch, die Seitenoptik und natürlich der umgebende Quelltext grundverschieden. Das ganze läuft seit Ende 1. Quartal des Jahres, also ca. 6 Monate.

Bislang keine negativen Reaktionen. Irgendwelche Erklärungen? Gefahr durch Spamreport sehe ich hier natürlich nicht.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag