Seite 1 von 1
Duplicate Content - Code oder Text?
Verfasst: 26.06.2006, 10:07
von sea-o
Wie ist Eure Erfahrung? Was wird von Google genutzt, um zu entscheiden, ob es sich um eine (zu) gleiche Seite handelt.
Code?
Wird der gesamte Seitecode gescannt und verglichen - mit allen Kommentaren etc.? Dann wäre es ja vergleichsweise einfach DC zu umgehen.
Text/Inhalt?
Oder wird doch eher der eigentliche Inhalt bewertet? So wie ihn der Besucher einer Website zu sehen bekommt? Dann allerdings frage ich mich, wie es passieren kann, dass Seiten gleichen Aufbaus aber UNTERSCHIEDLICHER Sprache in die DC-Falle laufen können.
Bin gespannt
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 26.06.2006, 10:23
von GreenHorn
Automatische Erkennung kenne ich nur bei gleichen title- und decription-tag. Ansonsten ist google absolut blind.
https://www.abakus-internet-marketing.d ... 28136.html
Verfasst: 26.06.2006, 11:19
von sea-o
und was ist dann mit
www webconfs com/similar-page-checker.php?
Alles Müll?
Verfasst:
von
Content Erstellung von
ABAKUS Internet Marketing
Ihre Vorteile:
- einzigartige Texte
- suchmaschinenoptimierte Inhalte
- eine sinnvolle Content-Strategie
- Beratung und Umsetzung
Jetzt anfragen:
0511 / 300325-0
Verfasst: 26.06.2006, 11:27
von ole1210
Ja!Würde ich so sagen!
Verfasst: 26.06.2006, 11:28
von buttheads
Nach meiner Einschätzung liegt Greenhorn falsch wenn er sagt, Google sei hinsichtlich DC blind. Es dauert einige Zeit, bis Google DC erkennt. das wird dann an Textabschnitten festgemacht. Schau Dir dazu
www.copyscape.com an und du siehst, was die können.
Greenhorn hat recht wenn es um die Frage geht, ob Google DC schon beim ersten scan herausfiltert. Dies machen die nicht. Erst mal wird aufgenommen, dann hält sich der Doppel-Müll eine Zeitlang, dann fliegt er raus und wir haben einen neuen Thread hier von nem empörten Domaininhaber...
Tatsächlich scheint es keine Regeln zu geben, wie lange sich der Doppel-Müll im index halten kann, und welche Version nachher bestehen bleibt.
Verfasst: 26.06.2006, 11:40
von ole1210
Hä? Du kannst doch Copyscape nicht mit google vergleichen. Copyscape zeigt, das es technisch möglich ist, inhaltlich ähnliche Seiten zu finden.
Ich denke das ist uns aber allen klar! Ich denke aber nicht, das google da großartig gegen vor geht. Zum einen habe ich diese Erfahrung bisher nicht gemacht, zum anderen sollte es dan keine Wiki oder DMOZ-Clones geben. Davon ist aber das ganze Netz voll!!!!
frage ich mich, wie es passieren kann, dass Seiten gleichen Aufbaus aber UNTERSCHIEDLICHER Sprache in die DC-Falle laufen können.
Wem ist das passiert? Gib mal die Domain. Ich verwette mein Auto, das die Seite NICHT wegen DC gekickt wurde.
Verfasst: 26.06.2006, 11:57
von sea-o
Auch auf die Gefahr hin, Euch zu langweilen. Aber ich hänge immer noch wegen meines Katalogs. Und bisher haben mir alle DC als DAS Problem genannt.
Google hat einen Produktkatalog unter .de komplett indiziert (17.000 Seiten). Doch dessen "verwandte" Seiten unter .dk, .at, .fr, .es werden zwar eifrig von Bots besucht, doch nicht indiziert (max. 205 Seiten) niemals, auch nicht anfänglich.
Title und sämtliche Metas sind unterschiedlich, ebenso wie die Navigation und auch einiges an Text.
Aber seht selbst, z.B.
www de/advantech/adam-6520/p1344.html (wurde indiziert)
www fr/advantech/adam-6520/p1344.html (wird nicht indiziert)
langsam verzweifelnd.
sea-o
Verfasst: 26.06.2006, 12:07
von ole1210
Dein Problem ist ein ganz anderes!!!
Dein menü funktioniert nur mit aktiviertdem JS. Google kann ja bekanntlich kein JS.
Auf der deutschen Seite hast du ne nette Sitemap, in der alle Produkte verlinkt sind.. Auf der französischen nicht.
Leg da mal ne Sitemap an, dann sollte dein Problem behoben sein.
DC hast du sicher nicht.
Viele Grüße
Ole
BTW.: Wenn ich ne .de Seite beusche, dann erwarte ich DEUTSCHEN Content. Wenn du englisch-sprachigen Content anbietest, dann nimm doch lieber ne .com-Domain.
Verfasst: 26.06.2006, 12:14
von Hasenhuf
ole1210 hat geschrieben:... Wiki oder DMOZ-Clones ...
Wiki ohne clone reicht schon, die haben auch viel DC mit ihren "Weiterleitungen".
z.B.
Verfasst: 26.06.2006, 12:19
von sea-o
ole1210 hat geschrieben: Dein menü funktioniert nur mit aktiviertdem JS. Google kann ja bekanntlich kein JS.
Das stimmt nicht ganz. Das JS-Menü ist nur einer von dreien Zugängen, Du erreichst die Seiten auch alle komplett via statischer Links, ausgehend vom Menüpunkt "Produkte"
ole1210 hat geschrieben: Auf der deutschen Seite hast du ne nette Sitemap, in der alle Produkte verlinkt sind. Auf der französischen nicht.
Leg da mal ne Sitemap an, dann sollte dein Problem behoben sein.
Werde ich sofort tun.
ole1210 hat geschrieben: DC hast du sicher nicht.
Die erste gute Nachricht
ole1210 hat geschrieben: BTW.: Wenn ich ne .de Seite beusche, dann erwarte ich DEUTSCHEN Content. Wenn du englisch-sprachigen Content anbietest, dann nimm doch lieber ne .com-Domain.
Da bin ich ganz Deiner Meinung. Aber die Niederlassungen des Unternehmens kümmern sich nicht darum und wollen keine 17.000 Texte übersetzen. Dennoch wollen sie alle IHREN Auftritt mit allen Produkten. Deren Antwort "Wieso, jeder IT-Leiter kann doch englisch!"
Verfasst: 26.06.2006, 12:52
von ole1210
Du erreichst die Seiten auch alle komplett via statischer Links, ausgehend vom Menüpunkt "Produkte
Ja? Mag sein. Habe nicht so weit gesucht. Ab der 4ten Ebene hatte ich keine Lust mehr noch tiefer zu klicken.
Mit der Sitemap hast du die Produkte aber schon mit 2 Klicks erreicht. Das ist für die Suchmaschinen WESENTLICH einfacher.
Gib doch mal in einigen Tagen bescheid, was die Sitemap gebracht hat.
Verfasst: 26.06.2006, 13:00
von Airport1
Denkt doch mal nach wie sowas implementiert sein koennte:
1. Webseiten freistellen von Gebroemsel wie z.B. HTML/JS Schnickschnack
2. Ggf. splitten (z.B. nach Absaetzen)
3. Zaehlen (z.B. vorkommende Woerter), evtl. Wegstreichen von "der die das" u.ae.
4. Verschiedene Vergleiche (nur Woerter oder ganze Absaetze..)
5. Anhand von Schwellwerten entscheiden "wie aehnlich" die Seiten sind
Verfasst: 27.06.2006, 18:09
von sea-o
ole1210 hat geschrieben:
Gib doch mal in einigen Tagen bescheid, was die Sitemap gebracht hat.
Werde ich tun, aber ich habe keine großen Hoffnungen, denn ich versorge Google bereits mit einer google-sitemap...
*seufz