Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Duplicate Content - Code oder Text?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
sea-o
PostRank 2
PostRank 2
Beiträge: 57
Registriert: 30.05.2006, 08:48
Wohnort: Mannheim

Beitrag von sea-o » 26.06.2006, 10:07

Wie ist Eure Erfahrung? Was wird von Google genutzt, um zu entscheiden, ob es sich um eine (zu) gleiche Seite handelt.

Code?
Wird der gesamte Seitecode gescannt und verglichen - mit allen Kommentaren etc.? Dann wäre es ja vergleichsweise einfach DC zu umgehen.

Text/Inhalt?
Oder wird doch eher der eigentliche Inhalt bewertet? So wie ihn der Besucher einer Website zu sehen bekommt? Dann allerdings frage ich mich, wie es passieren kann, dass Seiten gleichen Aufbaus aber UNTERSCHIEDLICHER Sprache in die DC-Falle laufen können.

Bin gespannt

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

GreenHorn
PostRank 10
PostRank 10
Beiträge: 4487
Registriert: 19.12.2005, 15:01

Beitrag von GreenHorn » 26.06.2006, 10:23

Automatische Erkennung kenne ich nur bei gleichen title- und decription-tag. Ansonsten ist google absolut blind.
https://www.abakus-internet-marketing.d ... 28136.html

sea-o
PostRank 2
PostRank 2
Beiträge: 57
Registriert: 30.05.2006, 08:48
Wohnort: Mannheim

Beitrag von sea-o » 26.06.2006, 11:19

GreenHorn hat geschrieben:Automatische Erkennung kenne ich nur bei gleichen title- und decription-tag. Ansonsten ist google absolut blind.
https://www.abakus-internet-marketing.d ... 28136.html
und was ist dann mit

www webconfs com/similar-page-checker.php?

Alles Müll?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 26.06.2006, 11:27

Ja!Würde ich so sagen!

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 26.06.2006, 11:28

Nach meiner Einschätzung liegt Greenhorn falsch wenn er sagt, Google sei hinsichtlich DC blind. Es dauert einige Zeit, bis Google DC erkennt. das wird dann an Textabschnitten festgemacht. Schau Dir dazu www.copyscape.com an und du siehst, was die können.

Greenhorn hat recht wenn es um die Frage geht, ob Google DC schon beim ersten scan herausfiltert. Dies machen die nicht. Erst mal wird aufgenommen, dann hält sich der Doppel-Müll eine Zeitlang, dann fliegt er raus und wir haben einen neuen Thread hier von nem empörten Domaininhaber...

Tatsächlich scheint es keine Regeln zu geben, wie lange sich der Doppel-Müll im index halten kann, und welche Version nachher bestehen bleibt.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 26.06.2006, 11:40

Schau Dir dazu www.copyscape.com an und du siehst, was die können.
Hä? Du kannst doch Copyscape nicht mit google vergleichen. Copyscape zeigt, das es technisch möglich ist, inhaltlich ähnliche Seiten zu finden.
Ich denke das ist uns aber allen klar! Ich denke aber nicht, das google da großartig gegen vor geht. Zum einen habe ich diese Erfahrung bisher nicht gemacht, zum anderen sollte es dan keine Wiki oder DMOZ-Clones geben. Davon ist aber das ganze Netz voll!!!!
frage ich mich, wie es passieren kann, dass Seiten gleichen Aufbaus aber UNTERSCHIEDLICHER Sprache in die DC-Falle laufen können.
Wem ist das passiert? Gib mal die Domain. Ich verwette mein Auto, das die Seite NICHT wegen DC gekickt wurde.

sea-o
PostRank 2
PostRank 2
Beiträge: 57
Registriert: 30.05.2006, 08:48
Wohnort: Mannheim

Beitrag von sea-o » 26.06.2006, 11:57

Auch auf die Gefahr hin, Euch zu langweilen. Aber ich hänge immer noch wegen meines Katalogs. Und bisher haben mir alle DC als DAS Problem genannt.

Google hat einen Produktkatalog unter .de komplett indiziert (17.000 Seiten). Doch dessen "verwandte" Seiten unter .dk, .at, .fr, .es werden zwar eifrig von Bots besucht, doch nicht indiziert (max. 205 Seiten) niemals, auch nicht anfänglich.
Title und sämtliche Metas sind unterschiedlich, ebenso wie die Navigation und auch einiges an Text.

Aber seht selbst, z.B.
www de/advantech/adam-6520/p1344.html (wurde indiziert)
www fr/advantech/adam-6520/p1344.html (wird nicht indiziert)

langsam verzweifelnd.

sea-o
Zuletzt geändert von sea-o am 17.07.2006, 16:46, insgesamt 1-mal geändert.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 26.06.2006, 12:07

Dein Problem ist ein ganz anderes!!!

Dein menü funktioniert nur mit aktiviertdem JS. Google kann ja bekanntlich kein JS.
Auf der deutschen Seite hast du ne nette Sitemap, in der alle Produkte verlinkt sind.. Auf der französischen nicht.
Leg da mal ne Sitemap an, dann sollte dein Problem behoben sein.

DC hast du sicher nicht.

Viele Grüße

Ole

BTW.: Wenn ich ne .de Seite beusche, dann erwarte ich DEUTSCHEN Content. Wenn du englisch-sprachigen Content anbietest, dann nimm doch lieber ne .com-Domain.

Hasenhuf
PostRank 9
PostRank 9
Beiträge: 2840
Registriert: 26.12.2005, 22:22

Beitrag von Hasenhuf » 26.06.2006, 12:14

ole1210 hat geschrieben:... Wiki oder DMOZ-Clones ...
Wiki ohne clone reicht schon, die haben auch viel DC mit ihren "Weiterleitungen". z.B.

sea-o
PostRank 2
PostRank 2
Beiträge: 57
Registriert: 30.05.2006, 08:48
Wohnort: Mannheim

Beitrag von sea-o » 26.06.2006, 12:19

ole1210 hat geschrieben: Dein menü funktioniert nur mit aktiviertdem JS. Google kann ja bekanntlich kein JS.
Das stimmt nicht ganz. Das JS-Menü ist nur einer von dreien Zugängen, Du erreichst die Seiten auch alle komplett via statischer Links, ausgehend vom Menüpunkt "Produkte"
ole1210 hat geschrieben: Auf der deutschen Seite hast du ne nette Sitemap, in der alle Produkte verlinkt sind. Auf der französischen nicht.
Leg da mal ne Sitemap an, dann sollte dein Problem behoben sein.
Werde ich sofort tun.
ole1210 hat geschrieben: DC hast du sicher nicht.
Die erste gute Nachricht ;-)
ole1210 hat geschrieben: BTW.: Wenn ich ne .de Seite beusche, dann erwarte ich DEUTSCHEN Content. Wenn du englisch-sprachigen Content anbietest, dann nimm doch lieber ne .com-Domain.
Da bin ich ganz Deiner Meinung. Aber die Niederlassungen des Unternehmens kümmern sich nicht darum und wollen keine 17.000 Texte übersetzen. Dennoch wollen sie alle IHREN Auftritt mit allen Produkten. Deren Antwort "Wieso, jeder IT-Leiter kann doch englisch!"

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 26.06.2006, 12:52

Du erreichst die Seiten auch alle komplett via statischer Links, ausgehend vom Menüpunkt "Produkte
Ja? Mag sein. Habe nicht so weit gesucht. Ab der 4ten Ebene hatte ich keine Lust mehr noch tiefer zu klicken.
Mit der Sitemap hast du die Produkte aber schon mit 2 Klicks erreicht. Das ist für die Suchmaschinen WESENTLICH einfacher.

Gib doch mal in einigen Tagen bescheid, was die Sitemap gebracht hat.

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 26.06.2006, 13:00

Denkt doch mal nach wie sowas implementiert sein koennte:

1. Webseiten freistellen von Gebroemsel wie z.B. HTML/JS Schnickschnack
2. Ggf. splitten (z.B. nach Absaetzen)
3. Zaehlen (z.B. vorkommende Woerter), evtl. Wegstreichen von "der die das" u.ae.
4. Verschiedene Vergleiche (nur Woerter oder ganze Absaetze..)
5. Anhand von Schwellwerten entscheiden "wie aehnlich" die Seiten sind
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

sea-o
PostRank 2
PostRank 2
Beiträge: 57
Registriert: 30.05.2006, 08:48
Wohnort: Mannheim

Beitrag von sea-o » 27.06.2006, 18:09

ole1210 hat geschrieben: Gib doch mal in einigen Tagen bescheid, was die Sitemap gebracht hat.
Werde ich tun, aber ich habe keine großen Hoffnungen, denn ich versorge Google bereits mit einer google-sitemap...

*seufz

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag