Seite 1 von 1
Duplicated Content-Filter am Beispiel Wikipedia
Verfasst: 04.01.2005, 03:51
von Jojo
Mir scheint Google hat grössere Fortschritte im Bereich Duplicated Content gemacht. So scheint es mir zumindest. Aufgefallen ist mir dies an der Wikipedia.
Als Beispiel folgende Suchabfrage:
Suchanfragen parallel an mehrere normale Suchmaschinen
Platz 1 nimmt ein Wikipedia-Clone ein. Unter den Ergebnissen findet sich ansonsten keine andere mit dieser Wikipedia-Seite.
Nimmt man Anführungszeichen zu Hilfe:
"Suchanfragen parallel an mehrere normale Suchmaschinen"
Hier beschränkt sich Google wegen der Ähnlichkeit gleich erstmal auf 1 Seite. Diesmal fällt die Wahl auf die Wikipedia selbst. Erst wenn man sich die ähnlichen Ergebnisse ebenfalls anzeigen lässt kommen auch die Clone zum Vorschein.
Zurück zu Beispiel 1. Wenn man am Ende der SERPs angelangt ist und sich die übersprungenen Resultate mit in den SERPs anschaut werden die ersten 6 Positionen von dem Wikipedia-Artikel eingenommen. (
https://www.google.de/search?q=Suchanfr ... 1&filter=0 ) Interessant an dem Link finde ich auch das Ende "filter=0" ...

War mir bisher noch nie aufgefallen.
Nun ich denke für den ein oder anderen mag dieser kurze Bericht interessant sein. Sieht man doch mal einen Filter in Aktion.
Verfasst:
von
Content Erstellung von
ABAKUS Internet Marketing
Ihre Vorteile:
- einzigartige Texte
- suchmaschinenoptimierte Inhalte
- eine sinnvolle Content-Strategie
- Beratung und Umsetzung
Jetzt anfragen:
0511 / 300325-0
Verfasst: 04.01.2005, 11:21
von Apotheker
Seit dem 17.12. sieht man doch überall den Filter in Aktion. Die filter=0 Geschichte wurde hier ja auch mal kurz andiskutiert, aber zu meinem Unverständnis nicht weiterverfolgt. Bei WMW ging es da schon etwas weiter, aber die Leute dort jammern eher als die Sache konsequent zu analysieren.
Fakt ist, dass filter=0 früher immer ähnliche passende Ergebnisse der gleichen Domain eingeblendet hat. Jetzt tauchen mit filter=0 auch Seiten wieder auf, die durch das Update abgerutscht sind. Natürlich können die Googler dem "filter" beliebige Funktionen zuweisen. Wenn es aber einigermaßen logisch bleiben soll, steht dieser Filter in Zusammenhang mit doppeltem Content - wie Du schon sagst. Und ich denke, dass es hier sowohl um doppelten Content auf verschiedenen Domains geht (Klone, URL Hijacking) als auch auf der gleichen Domain (zu ähnliche Seiten = DWPs).
Folgendes sehe ich auf zwei Domains:
Die Domains haben sowohl guten Content als auch einen Haufen Seiten, den man als DWPs interpretieren könnte. Früher war alles gut gelistet: Die Startseite mit dem Hauptkey, die Startseite mit einer Keykombi, beliebige "DWPs" mit passenden Keykombis. Jetzt ist nur noch die Startseite mit dem Hauptkey oben. Kombis werden quasi überhaupt nicht mehr bedient. Und jetzt kommt's: Mit filter=0 steht die Startseite und auch andere, saubere Unterseiten wieder auf den ersten Plätzen, wenn man nach den den entsprechenden Keykombis sucht. Die "DWPs" tauchen aber auch mit filter=0 nicht mehr auf.
Mein Fazit:
- Alles was als DWP missverstanden werden könnte, wird erkannt und grundsätzlich schlecht gerankt - egal ob mit oder ohne filter=0.
- Irgendwie erhält dadurch aber auch die gesamte Domain einen Malus. D.h. auch nicht als böse interpretierte Unterseiten bekommen ihr Fett weg.
- Mit filter=0 tauchen diese Unterseiten wieder auf, die anderen aber nicht.
- Ob der "filter" also einfach übers Ziel hinausschießt (wo gehobelt wird, fallen Späne) oder ob er auch zur Bestrafung der ganzen Domain dient - keine Ahnung...
Verfasst: 04.01.2005, 11:54
von lomo
Das stinkt doch zum Himmel.
Ein Filter wird per QueryString eingeschaltet und zwar mit einem Parameter "0" und einem Variablennamen "filter". Will Google den SEOs bei ihren analytischen Tatigkeiten nun wirklich entgegen kommen? Dann würden bald sicher auch alle anderen Filter-Schalter per QueryString übergeben werden. Ich meine jedoch, dass dies der gleiche Schrott wie die PR-Anzeige ist: lasst uns die SEOs verrückt machen.
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 04.01.2005, 12:06
von Jojo
@lomo
Der Filter wird deaktiviert durch den Parameter. Für Google vielleicht auch ein kleiner Weg zu zeige das sich etwas am Ranking positiv entwickelt. Ich denke grade im Kampf gegen Microsoft wird es wichtig das Signal aus zu senden: "Wir werden immer besser."
Der Nutzen für die SEOs hält sich meiner Meinung nach in Grenzen. Mehr als das Wissen das es einen Duplicated Content-Filter gibt, der scheinbar auch sehr gut funktioniert, bringt es meiner Meinung nach nicht. Die Schlussfolgerung draus kann natürlich nur sein das man noch mehr auf seinen eigenen Content achten sollte.
Verwirrend finde ich es genauso wenig wie die PR-Anzeige, man muss es nur zu interpretieren wissen.

Verfasst: 04.01.2005, 12:15
von lomo
Jojo hat geschrieben:Der Nutzen für die SEOs hält sich meiner Meinung nach in Grenzen. Mehr als das Wissen das es einen Duplicated Content-Filter gibt...
Und diese Erkenntnis hat dir der ominöse filter=0 Schalter gebracht?
Jojo hat geschrieben:Verwirrend finde ich es genauso wenig wie die PR-Anzeige, man muss es nur zu interpretieren wissen.

Was gibt es denn zum Henker z.B. bei PR=3 rein zu interpretieren? Dass dies nicht gleich 10 ist?
Verfasst: 04.01.2005, 12:33
von Apotheker
Moment, den filter=0 gab's schon immer, wenn man auf "Sie können bei Bedarf die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen." klickt.
Verfasst: 04.01.2005, 12:36
von phereia
Ich bin mir nicht ganz so sicher, daß dieser Filter ausschließlich "inhaltsbezogen" (zur Erkennung von sog. duplicate content) ist.
Beispiel:
Filter aus
Filter ein
Achtet auf die ein- und ausgeblendete Seite von k-faktor.com. Inhaltlich gibt es m.E. keine zu engen Übereinstimmungen sowohl mit der Startseite als auch der englischen Version. Ich gehe daher davon aus, daß dieser Filter mindestens genauso stark wie auf doppelten Inhalt auch auf *Mehrfachtreffer* von *einer* Domain eingestellt ist.
Verfasst: 04.01.2005, 12:52
von Jojo
@lomo
Ja, da habe ich mich verkehrt ausgedrückt. Die Erkenntnis haben mir die SERPs gebracht. Dort ist es mir ja auch aufgefallen. Der Filter-Parameter ist mir erst zum Schluss aufgefallen. Aber wie Apotheker schreibt gibt es den ja schon "ewig". Sollte wohl öfters meine Brille tragen?
Zum PR werde ich in diesem Thread nix mehr sagen. Dazu fehlt mir mittlerweile einfach die Lust ... gibt ja genug andere Threads.
Aber das es einen Duplicated Content-Filter in diesem Ausmaß gibt ist mir erst gestern aufgefallen. Ist ja nicht so lange her da wurde hier noch Wikipedia-Spam diskutiert. Insofern kann das ganze ja auch noch nicht so alt sein. Werde mich jetzt erstmal ein bischen durch die englischsprachigen SEO-Foren wühlen. Falls jemand dort entsprechende Threads kennt würde ich mich freuen wenn der Link hier gepostet würde.

Verfasst: 04.01.2005, 17:17
von Southmedia
Zitat aus der WMW
https://www.webmasterworld.com/forum3/27216.htm:
Just have a look on what G says about filter from google Web APIs Reference :
The <filter> parameter causes google to filter out some of the results for a given search. This is done to enhance the user experience on google.com, but for your application, you may prefer to turn filtering off in order to get the full set of search results.
When enabled, filtering takes the following actions:
Near-Duplicate Content filter = If multiple search results contain identical titles and snippets, then only one of the documents is returned.
Host Crowding = If multiple results come from the same Web host, then only the first two are returned.
Host Crowding ist das was wir schon lange kennen,
Near-Duplicate Content filter soll jetzt auf einmal ein Anti-SEO-Filter sein...
Ich sage: Business as usual, nurn bissel zuverlässiger.
Verfasst: 04.01.2005, 18:24
von Apotheker
Genauer wäre:
"If multiple search results contain
nearly identical titles and snippets, then only one of the documents is returned
- or even none.

"

Verfasst: 04.01.2005, 19:37
von schaulmeier
das ist doch schon ewig so
Verfasst: 05.01.2005, 02:40
von tomaten
Hallo.
Ich habe jetzt zwar nicht alles gelesen, will auch nur mal meine Beobachtungen dazu kund tun, denn ich habe definitiv Server mit doppeltem Content. Also, ich habe eine alte Domain (trillian.wegner24.de) und eine neue Domain (
www.wegner24.de) die beide auf die selbe Maschine gehen, dh. exakt die selben Inhalte liefern. Dabei lassen sich natürlich super Beobachtungen zu diesem Thema machen. Wenn ich was zum Thema "trillian" suche, also z.B. "trillian weather" (ohne Anführungszeichen, immer), dann kommt als #1
https://trillian.wegner24.de/cabriometer, wenn ich dagegen z.B. "cabriometer" suche, dann kommt
https://www.wegner24.de/cabriometer. D.h. Duplicate Content hat durchaus eine Daseinsberechtigung (für manche, mir ist es egal), denn Google zeigt immer das passendste an. Wenn ich dann auch noch "die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen." betätige dann kommen durchaus beide Seiten, denn Google sucht dann mit "filter=0". Also können wir festhalten, dass Duplicate Content komplett doppelt indiziert wird und erst in den Ergebnissen gefiltert wird. Damit spielt die Veröffentlichung von "filter=0" quasi keine Rolle, denn kein SEO kann es bei den Suchenden anschalten

! Höchstens, wenn er Google auf seiner Seite hat, aber dann sind die Besucher ja schon da

!
P.S: Natürlich ist davon schon einiges oder alles bekannt. Wollte, wie gesagt, nur ein schönes Beispiel dazu liefern.
Man kann die volle Indizierung von Duplicate Content bei mir auch daran sehen, dass der Domain
www.wegner24.de immer 1-2 Tage hinterher hinkt.