Seite 1 von 1

Die Lücke im Algo

Verfasst: 19.06.2006, 18:33
von RW
HI,

Auf der Suche nach der Algo Lücke....

link

Woran macht Google die Ähnlichkeit der nichtangezeigten Websites fest?

RW

Verfasst:
von

Verfasst: 19.06.2006, 18:54
von net(t)worker
am Content ?

Verfasst: 19.06.2006, 19:20
von wulfo
Hi und Google ist bei der Ählichkeitssuche noch nicht die beste Suma. MSN ist da bei weiten besser.

Wenn Google da ein wenig besser währe würden die ganzen Domz Klone und Pseudo Sumas, Amazonshops, Ebay Klone endlichmal wegfallen und den normalen Webseiten dienen.

Verfasst:
von

Verfasst: 19.06.2006, 19:22
von ole1210
Wenn man bei Wikipedia klaut soll man sich nicht wundern, wenn man nicht auf Platz eins kommt...

Keine Lücke, sondern identischer Content!

Verfasst: 19.06.2006, 19:45
von wulfo
ole1210 das meine ich nicht, das geht sehe doch stellenweise massenhaft solche Seiten auf den ersten Plätzen.

Mir geht es darum das Google solche Seiten wirklich mal mehr ignorien sollte, ich kann dir Domz Klone zeigen die haben PR6 und mehr und das ohne eigenen Inhalt.

Kammdas im Sinne des Erfinders sein :crazyeyes:

Verfasst: 20.06.2006, 04:52
von bbnetch
du kannst 10 saetze 100 mal verschieden nacheinander auflisten, und es sind keine doubletten..

die beiden seiten die du oben postest, haben nicht nur ein verschiedenes desing, sondern auch ganz verschiedene texte.

moechte sogar sagen, da ist ueber 50 % text verschieden bei deinem vergleich.

das ist auch gut so, sonst wuerde ja abakus aus dem index fliegen, wenn ich dich nun woander zitieren wuerde.

Verfasst: 20.06.2006, 07:39
von RW
Hi, bbnetch

Scheint so als ob es doch noch einige hier im Forum gibt die etwas Produktives versuchen mit einzubringen. Ein Winki Klonseite eignet sich gut um den Duplikatcontent Filter zu untersuchen. Das Problem läst sich x-beliebige Seiten übertragen. Praktisch erzeugt ein Shop (Rucksackshop was auch immer) Duplikate Content wenn er die Artikelbeschreibungen der Hersteller verwendet. Das ist momentan und zukünftig ein großes Problem für den Internethandel und natürlich von Google geschickt gelöst worden. Adwords lebt von Werbung! Gibt es nur noch eine Seite (Schablone) im Index müssen alle Anderen bezahlen um überhaupt zu erscheinen. Clever gelöst!
Dass dieser Filter schon jetzt arbeitet zeigt das von mir benannte Beispiel.
Ich denke dass bei der Duplikate Untersuchung seitens Google der reine Text Anteil der Seite in den Filter verwendet wird. Design und Formatierung spielen dabei keine Rolle. Es Geht einzig und allein um Text bzw. Textfluss. Jetzt ist die Frage ab welchen Verhältnis der Filter anschlägt.

RW

Verfasst: 20.06.2006, 07:53
von wulfo
Hi besonders gut kann der Filter aber mal nicht sein da dieses Beispiel alles ein Partnerprogramm von Affi ist
https://www.google.de/search?hl=de&q=We ... uche&meta=

Die ersten drei haben noch ein wenig was verändert, bei den anderen ist selbst die Beschreibung gleich.

Verfasst: 20.06.2006, 08:00
von RW
Hi,

Besser als:
https://de.search.yahoo.com/search?fr=f ... meta=vl%3D

und

https://search.msn.de/results.aspx?q=We ... &FORM=PORE

:D

RW

Verfasst: 20.06.2006, 09:02
von Margin
hmm ...

Wenn ich dieser DC-Theorie konsequent folge, dann fällt mir dazu das geniale "Hamburger Urteil" ein ...

Wie passt das in die Theorie?