Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wie der dup.Content-Filter wirklich (???) funktioniert

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
lrosen
PostRank 3
PostRank 3
Beiträge: 78
Registriert: 03.03.2005, 14:08

Beitrag von lrosen » 09.03.2006, 09:25

Meine Theorie zum Thema dup.Content-Filter:
Vorab: Dup.Content innerhalb einer Domain ist nicht schädlich und kann ignoriert werden. Das Problem tritt nur zwischen Domains auf.

G. weiss von jeder Seite (nicht 'Site'), bei welchen Suchbegriffen sie wo platziert ist. G. weiss auch, welche Seite wie häufig angeklickt wird. Beweis: siehe Sitemap-Statistiken.

Theorie: Anders als oft spekuliert, läuft die dup.Content-Erkennung keinesfalls über den Textvergleich (60-70-80-90% ähnlich) und schon gar nicht über eine semantische Analyse, sondern -vereinfacht- etwa so ab:

1- Man nehme die Ergebnisliste zu einem Suchbegriff, z.B. Hommingberger und die top-platzierte(n) Seite(n):
https://www.google.de/search?q=Hommingberger

2- Jetzt nehme man alle anderen Suchbegriffe, für die die Top-Seite(n) ebenfalls top platziert ist, z.B. Forellenzuchtbetrieb und all' die anderen:
https://www.google.de/search?q=Forellenzuchtbetrieb

3- Zum Schluss bilde man den Durchschnitt aller Ergebnislisten. Seiten, die für den gleichen Satz von Suchbegriffen gleich oder ähnlich platziert sind, sind Duplikate der Top-Seite und werden mit einem Malus abgewertet.

4- Hat eine Site (oder 'Domain') ausreichend viele dup.Seiten, wird sie kollektiv mit einem Malus belegt.

Voila.

----

Ein solches Verfahren ist für G. viel leichter zu implementieren als ein direkter Textvergleich jeder Seite mit jeder anderen und erfüllt auch hervorragend die Relevanz-Idee. Einfacher als eine semantische Analyse ist es allemal.

----

Aus Sicht des Betreibers (oder meinetwegen auch SEO) fördert dieses Verfahren allerdings ganz massiv die Monopolisierung:
Relevanz-Jünger und Spamreport-Befürworter: Bitte JETZT das Gehirn einschalten !
  • Mal angenommen, ich wollte einen Online-Buchladen eröffnen, der 1000mal besser, schöner und billiger als Amazon werden soll. Dazu wäre es notwendig und praktisch unvermeidlich, dass ich zu sehr ähnlichen Begriffen wie Amazon gefunden werden muss, selbst wenn ich den kompletten Content selbst erfunden habe.
  • Der oben beschriebene Content-Filter wird mich in diesem Fall immer als Dublette von Amazon identifizieren, so dass ich praktisch keine Chance gegen die etablierten Sites habe :x
  • Mit anderen Worten: G.'s Relevanz-Fetischismus behindert den Wettbewerb und die weitere Entwicklung.
Kommentare ?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Cura
PostRank 10
PostRank 10
Beiträge: 4139
Registriert: 23.02.2004, 07:18

Beitrag von Cura » 09.03.2006, 09:45

Kommentar?

G ist eine als Löwe verkleidete Maus.

lloy
PostRank 7
PostRank 7
Beiträge: 638
Registriert: 23.08.2005, 17:19

Beitrag von lloy » 09.03.2006, 09:58

G. weiss von jeder Seite (nicht 'Site'), bei welchen Suchbegriffen sie wo platziert ist.
Nein. Die Ergebnislisten werden durch einen Algorithmus erstellt. Das Ergebnis dieses Algorithmus ist "dynamisch", d.h. Google kennt seine eigenen Serps gerade nicht. Das kann man schön daran sehen, wie für verschiedene Suchbegriffe unterschiedliche descriptions für die einzelnen Seiten herangezogen werden. Wäre es so, wie Du sagst, müsste ja für jeden Begriff bzw. für jede Kombination von Begriffen eine eigene Ergebnisliste erstellt und gespeichert werden. Aus programmiertechnischer Sicht wäre das zu aufwendig und auch nicht zielführend.
G. weiss auch, welche Seite wie häufig angeklickt wird. Beweis: siehe Sitemap-Statistiken.
Gilt nur für die Zugriffe aus den Google eigenen Serps heraus und selbst da glaube ich nicht, dass diese Daten so verwendet werden, wie Du annimmst.
Zum Schluss bilde man den Durchschnitt aller Ergebnislisten. Seiten, die für den gleichen Satz von Suchbegriffen gleich oder ähnlich platziert sind, sind Duplikate der Top-Seite und werden mit einem Malus abgewertet.
Du gehst davon aus, dass die Dupletten gleich oder ähnlich plaziert sind, wie das "Original". Aus meiner Erfahrung heraus ist dies jedoch keine Voraussetzung für den DC-Filter.
Zudem müsste ein Amazon-Clone dann erst mal einen ähnlichen Status wie Amazon selbst erlangen, um anschliessend abgestuft zu werden.

Just my 2cents, aber ich bleibe Anhänger der Texterkennungs-These :wink:
Zuletzt geändert von lloy am 09.03.2006, 10:05, insgesamt 1-mal geändert.