Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Unique-Texte

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
bionade
PostRank 7
PostRank 7
Beiträge: 627
Registriert: 26.03.2010, 13:59

Beitrag von bionade » 29.04.2011, 09:01

Moin, moin!
Weiß jemand wie hoch die Unique-Rate in % bei Texten sein muss, damit G. sie akzeptiert?
Danke schon mal vorab für Wortspenden!
Grüße!
Bio

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Bodo99
PostRank 10
PostRank 10
Beiträge: 3160
Registriert: 04.11.2009, 13:43

Beitrag von Bodo99 » 29.04.2011, 09:08

Ich verstehe die Frage nicht. Google akzeptiert fast alle Texte. 100% Unique Texte ranken einfach nur besser. Willste jetzt wissen ob Google Mischtexte aus 70% Unique und 30% DC auch mag? Wie würdest du das bewerten wenn du Google wärst?

bionade
PostRank 7
PostRank 7
Beiträge: 627
Registriert: 26.03.2010, 13:59

Beitrag von bionade » 29.04.2011, 09:49

OK, akzeptiert ist das falsche Wort. Ich meinte: wie hoch muss die Unique-Rate sein, damit der Text rankt bzw. Links aus dem Text positive Effekte auf das Ranking anderer Seiten haben.

Um die Antwort teilweise gleich sebst zu geben: 100% unique ist nicht notwendig, die Rate, die noch durchgeht, ist erstaunlich. Das geht ja auch nicht anders, denn bei der Menge an Texten, die es im Web gibt, kann es schon mal zu Überschneidungen kommen. (Zitate, häufig verwendete Floskeln...)

Ich habe dazu einen detaillierten Bericht gelesen, finde ihn aber leider nicht mehr. Daher meine Frage.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

PapaRatzi
PostRank 6
PostRank 6
Beiträge: 366
Registriert: 02.12.2005, 12:03

Beitrag von PapaRatzi » 29.04.2011, 16:47

Das ist schwierig zu beantworten, weil man müsste erstmal definieren was unique ist:

Ein Text besteht aus zwei Teilen, Teit 1 ist neu geschrieben und Teil 2 ist ein bereits vorhandener Text?

oder

Ein Text besteht aus mehreren (5-6) verschiedenen zusammengewürfelte Teilen, alle Texte sind google bekannt und wurden in dem neuen Text erstmalig kombiniert?


Nun müsste man noch wissen wie google zwei Texte miteinander vergleicht... Hier könnte Google aus den vorhandenen Wörtern einen Wert bilden, ein ähnlicher Wert sagt aber noch lange nichts über den tatsächlichen Inhalt aus....

Ich bin der Meinung das es Aufgrund der Messschwierigkeiten bei Google bei 50% unique + 50% DC keine Rankingprobleme gibt....

Am besten ist es aber das man die Textcluster je länger der Text ist jeweils klein hält:

25 % unique + 25 % DC + 25 % unique + 25 % DC

ist bei längeren Texten besser als:

50% unique + 50 % DC

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 29.04.2011, 17:06

bionade hat geschrieben:Moin, moin!
Weiß jemand wie hoch die Unique-Rate in % bei Texten sein muss, damit G. sie akzeptiert?
Danke schon mal vorab für Wortspenden!
Grüße!
Bio
ca. 30% Uniqueness hat bei empirischen Tests von mit gereicht. Unqiueness wird dabei nach den Algorithmen berechnet, die in den Papers vorgestellt sind, die ich https://www.myseosolution.de/seo-tools/ ... on-texten/ erläutert hab. Ein "praktisches Beispiel" zur Berechnung hab ich auf https://www.mywebsolution.de/artikel/20 ... ntent.html vorgestellt.

Die Texte wurden mit meinem Article Wizard erstellt (deshalb kenn ich auch die Werte) und auf Freeblogs und Co verteilt.

Ich benutze allerdings inzwischen wesentliche höhere Raten (ca. 75%+ für Artikelverzeichnisse), nur für den Fall, das Google da mal die Schrauben anzieht ;)
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

PapaRatzi
PostRank 6
PostRank 6
Beiträge: 366
Registriert: 02.12.2005, 12:03

Beitrag von PapaRatzi » 29.04.2011, 18:00

Hirnhamster: bei dem von dir genannten Modell müsste aber jeder Text mit jedem verglichen werden:

Also wenn Google z. Bsp. 20 Mrd Seiten im Index hat, müsste Google 20 Mrd x (20 Mrd -1) Vergleiche anstellen (gut man könnte auch nur thematisch verwandte Seiten vergleichen, dann wären es weniger) .... und diese Vergleiche müssten sich regelmäßig wiederholen, da sich die Inhalte ändern könnten... oder seh ich das falsch?

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 29.04.2011, 18:24

nope, das siehst du richtig.

Das von mir im Beispiel dargestellte Modell verdeutlich nur das Prinzip dessen, was passiert. Google geht noch einen Schritt weiter und erstellt einen sogenannten Fingerprint eines Dokumentes, der nur wenige Byte groß ist.

Dazu wird eine zufällige Permutation über die Shingles gelegt und das Minimum ausgewählt. In der Online Vorlesung in https://www.ifis.cs.tu-bs.de/teaching/w ... ws/video11 wird das ganz gut dargestellt, ist aber nicht ganz so einfach zu erklären ohne tiefer in die Mathematik zu gehen ;)

Statt also den ganzen "Prozess" zu wiederholen, muss lediglich noch der Fingerprint verglichen werden. Wie Google selbst das nun genau macht, kann ich dir allerdings nicht sagen, aber in dem Paper von Brodei ist es zum Beispiel so, dass nicht "jedes neue Dokument" verglichen wird, sondern das "einmal" der gesamte Bestand verglichen wird und gleiche Dokumente in Clustern zusammengefasst werden. Der Prozess lässt sich wiederum über Divide and Conquer Verfahren parallesieren und skaliert somit eher.
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

PapaRatzi
PostRank 6
PostRank 6
Beiträge: 366
Registriert: 02.12.2005, 12:03

Beitrag von PapaRatzi » 29.04.2011, 18:39

Sehr interessant Hirnhamster!!

Aber noch eine Rückfrage:

Man kopiere zum Bsp. sein eigenes Projekt 1:1 und nun setzt man in der Kopie im oberen Bereich einen Text welcher auf allen Unterseiten gleich ist und etwa genau so groß ist wie der "Contenttext".
Die Unterseiten der Kopie wären damit jeweils 50% unterschiedlich und zum Original gäbe es ebenfalls 50% unterschied....und das soll funktionieren?

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 29.04.2011, 20:53

Ich kann dir die Frage höchstens theoretisch beantworten.

1) Speziell zu dem was du gerade vorschlägst (gleicher Text auf allen Seiten) gibt es diverse Patente von Google um diesen herauszufiltern (siehe z.B. https://www.seobythesea.com/?p=996 ). Dieser Text wird auch als Boilerplate bezeichnet und kommt zum Beispiel häufig in Form von Navigation und Copyrighthinweisen vor. Es ist also wahrscheinlich, dass Google versucht, diesen Boilerplate Code möglichst zu erkennen und auszufiltern - er könnte also bei dem tatsächlich Uniquenessvergleich gar nicht berücksichtigt werden.

2) Die dargestellte Shingle-Technik basiert auf dem Zerlegen eines Textes in X-Wort-Teile. Ich bin in meinem Beispiel von einem 3-Way-Shingle ausgegangen - theoretisch lassen sich aber auch größere Teile auswählen. Damit sinkt zwar die Wahrscheinlichkeit der Übereinstimmung (weil eben "größere Teile" gleich sein müssen) andererseits kann man damit Textstellen identifizieren, die sich in weiten Teilen überlappen. Eventuell wird sowas eingesetzt und es werden andere Schwellwerte benutzt (Statt 50% müssen es jetzt schon 70% Uniqueness sein, damit kein DC vorliegt) - ist aber wie gesagt nur eine Überlegung von mir.

Was Google letztendlich macht und ob es überhaupt "genaue" Schwellwerte gibt, lässt sich glaub ich nicht eindeutig sagen. Es gibt ja das Phänomen, das gleiche Artikel auf starken Seiten trotzdem in den Index kommen, obwohl sie zu 80% oder so duplicate Content sind. Wenn du es "genau" wissen willst, musst du es für deinen Anwendungsfall ausprobieren - alles andere bleibt halt Spekulation ;)
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 29.04.2011, 23:40

75-80% ist ohne überproportionalen Aufwand schon hart für den menschlichen Leser, besonders bei eher nischenspezifischen Texten. Ich persönlich fahre meist knapp über 50% und damit sehr gut.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

Link-Geier
Nutzer/in
Nutzer/in
Beiträge: 2770
Registriert: 09.08.2009, 19:11

Beitrag von Link-Geier » 30.04.2011, 00:05

Vegas hat geschrieben:75-80% ist ohne überproportionalen Aufwand schon hart für den menschlichen Leser
Was ist das für ein Gefasel - hier geht es um DC. Woher soll der Leser denn wissen das das was er gerade liest zu irgendeinem Prozentsatz schon woanders steht.

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 30.04.2011, 00:57

Link-Geier hat geschrieben:Was ist das für ein Gefasel - hier geht es um DC. Woher soll der Leser denn wissen das das was er gerade liest zu irgendeinem Prozentsatz schon woanders steht.
Sorry, aber Du hast nicht verstanden worum es in diesem Thread überhaupt geht.

Es geht um die DC Erkennung bei der Umwandlung einer oder mehrerer Contentquellen bzw. Ursprungstexte in viele Varianten, vulgo auch gerne "Spinning" genannt und nicht um unterschiedliche selbstgeschriebene Texte.

Für den Leser sind 75-80% deshalb hart weil beim Ersetzen von Worten durch Synonyme und Umherwürfeln von Satzteilen/Absätzen oft die Lesbarkeit extrem leidet und der Text sehr holperig klingt.

Nur auf Wort/Begriffebene bezogen mußt Du grob über den Daumen gepeilt für 75-80% jedes zweite Wort mit 4 oder mehr Synonymen ausstatten die dann in beliebiger Kombination verwendet werden. Um das einigermaßen flüssig lesbar hinzubekommen ist der Aufwand immens. Beim "Nested Spinning" brauchst du weniger Synonyme, das ist aber noch eine Spur komplexer.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

Link-Geier
Nutzer/in
Nutzer/in
Beiträge: 2770
Registriert: 09.08.2009, 19:11

Beitrag von Link-Geier » 30.04.2011, 01:10

ja, aber mit so einem Scheiß geb ich mich halt garnicht erst ab

unknownsoul
PostRank 9
PostRank 9
Beiträge: 1604
Registriert: 08.02.2006, 08:28

Beitrag von unknownsoul » 30.04.2011, 01:18

Für den Leser sind 75-80% deshalb hart weil beim Ersetzen von Worten durch Synonyme und Umherwürfeln von Satzteilen/Absätzen oft die Lesbarkeit extrem leidet und der Text sehr holperig klingt.
Ich hoffe, Du machst das nur mit eigenen Texten, denn das Urheberrecht gibts auch noch! :-)

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 30.04.2011, 01:18

Link-Geier hat geschrieben:ja, aber mit so einem Scheiß geb ich mich halt garnicht erst ab
Ist halt eher der Masse statt Klasse Ansatz, aber für Satellitenseiten, Artikelverzeichnisse die alles online stellen was man Ihnen vorwirft o.ä. nicht verkehrt.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag