Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

ab wann spricht man von "duplicate Content"??

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 06.09.2005, 20:04

Hmmm ... vielleicht kommen wir weiter, wenn wir klarer differenzieren.

DC gibts einmal durch "leicht veränderte" Textbestandteile auf der eignen Seite (Seiten innerhalb der Domain unterscheiden sich nicht erheblich)

Für den Bereich "DC" im head haben wir seit einigen Monaten die Situation, das gleicher title und Description zu dieser "Hilfe, meine Seiten werden nur noch als URLs angezeigt"-Nummer führen.

Das Gleiche kann nach meiner Erfahrung bei Seiten passieren die sich nur unerheblich voneinander unterscheiden (paar mal keyword ausgetauscht), keinen eigenen Inhalt nach Abzug von Navigation und (Affili)-links haben. Dies scheint zu passieren nachdem der Mozilla Bot da war.

Ähnliches habe ich bei eigenen Navigationsseiten beobachtet, deren Content ausschließlich aus Sniptes von den Seiten bestand, für die sie teasen sollten - auch solche Seiten hatten (haben) aktuell keinen Bestand im Google-index ... was echt ein Problem bei internen verlinkungen sein kann. Nach starker Verkleinerung der Snipets hat sich das allerdings gebessert. (Ich habe noch keine konkreten Zeichen oder Prozentangaben ... probiere da noch rum).

DC zwischen unterschiedlichen Domains - das heißt Inhalte, die auf unterschiedlichen Domains identisch vorhanden sind (z.B. Pressemitteilungen, XML oder ähnliche Importe von Affili-Content etc.) verschwinden nach und nach von den unterschiedlichen Domains. Noch ist der Prozess relativ langsam: erst werden Die seiten indexiert und dann erst nach einer gewissen Zeit wieder "rausgeschmissen". Was mir beim prüfen mit copyscape.com aufgefallen ist, ist das immer 1-3 Versionen erhalten bleiben - wobei ich noch nicht verstanden habe, nach welchen Kriterien diese 1-3 "Bestandsversionen" im Index verbleiben. Sehr oft sind PR-schwache Seiten bei den verbliebenen Ergebnissen... es sieht fast so aus, alsob ein höherer PR hier (einfach durch häufigeres spidern) zum schnelleren grauen balken führt.

Es sind immer nur Beobachtungen - verstanden was ich da beobachte, habe ich noch nicht.

Für die wichtige Frage, wie groß der "unique" Anteil auf einer Setie sein muss, brauchts sicher auch bessere Rechner als wie misch ;-).

Überhaupt nicht einschätzen kann ich z.B. die immer größer werdenden "Zitate" der ganzen Pseudosuchmaschinen ... und die Frage ob und wenn ja welchen Einfluss die bei der DC Problematik spielen könnten. Gerade bei Seiten mit wenig textcontent scheinen aber "Sniptes" von den Pseudos zu einem Problem zu werden ...

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 06.09.2005, 20:22

buttheads hat geschrieben:... Für die wichtige Frage, wie groß der "unique" Anteil auf einer Setie sein muss, brauchts sicher auch bessere Rechner als wie misch ;-). ...
Allein schon für die umfangreiche beantwortung Dank an Disch. :wink:

Ich halte für mich fest:
1.
Header-DC: Gibt's bei mir nicht (mehr).
2.
Interner DC: nur auf uninteressanten Seiten (ca. 10 So erreichen Sie uns-Seiten und die alphabetische Suchfunktion).
3.
Externer DC: max. etwa 6 sites nutzen meine aktuelle Infoseiten, teils nur Inhaltsverzeichnisse, teils Textteile, teils ganzen Text. Da diese Infoseiten großteils wöchentlich, in seltenen Fällen monatlich bei mir ins Archiv verschoben und durch neue ersetzt werden, sehe ich das gelassen.

Es sei den Cura oder ff-webdesigner kommen mit was Neuem oder Airport1 hat 'ne neue Verschwörungstheorie. :D

besserwisser
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 05.10.2004, 13:14
Wohnort: Monstern

Beitrag von besserwisser » 07.09.2005, 07:43

meine meinung: google ist relativ dumm, was dc angeht. das liegt nicht an google, sondern an der natur der sache: wenn man beispielsweise einen festen string in einem festgelegten textabschnitt sucht dann ist der rechenaufwand relativ gering. wenn man allerdings einen string nicht genau bestimmter länge im selben textabschnitt sucht, so ist der rechenaufwand um ein vielfaches höher.

ich denke, google kann unmöglich jede seite mit jeder seite vergleichen, schauen: satz 1, kommst du auf seite 2 vor? satz 1+2, kommst du auf seite 2 vor etc.
das geht sehr wohl. Der Laie stellt sich das ziemlich aufwendig vor und das ist es sicher auch, aber-unmöglich-ists.net
Ähnliche Algorithmen werden bei der Gensuche in Gendatenbanken lange angewandt - das Ganze geht schneller als man denkt.
https://www.ncbi.nlm.nih.gov/BLAST/Blas ... QUENCE=yesgib eine folge von actg ein und du erhälst das Ergebnis

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Cura
PostRank 10
PostRank 10
Beiträge: 4139
Registriert: 23.02.2004, 07:18

Beitrag von Cura » 07.09.2005, 07:49

@rechtlegal –

Wenn Du wissen willst, in welcher Sprache eine Seite geschrieben ist, musst Du dann den gesamten Artikel lesen? Genügt ein Wort? Zwei, drei Worte, der erste Satz, der letzte Satz oder irgendetwas in der Mitte?

Wenn Du DC ausfindig machen willst, woran würdest Du es festmachen? Jeder schreibt von jeden ab, einer zitiert den anderen. Was ist Original, was ist Kopie? Ist das zeitliche Erscheinen ein Faktor? Was, wenn der Robot hinterherhinkt und nicht weiss, wer zuerst da war?

Gleiche Metas verwenden 99% der Webmaster. Die gleichen 99% wissen nicht zwischen www.meinedoamin.de und meinedomain.de zu unterscheiden und haben von 301, 302 nie etwas gehört und trotzdem werden sie gefunden und gelistet.

Was ist Wahrheit, was ist Dichtung?

Ist Google ein Genie oder das Mittelmass der Gesamtmasse der Mitarbeiter?

Kriegt LP noch einen hoch? Hat er je gekonnt?

Ich denke, hier machen sich viel zu viele Gedanken darüber was sein könnte, als darüber, was tatsächlich ist.

Probleme lösst man dann wenn sie sich stellen oder abzeichnen und nicht prophylaktisch, weil man dann mit nichts anderem mehr beschäftigt ist.

Du kannst Dir Gedanken machen wie Du willst, morgen dreht ein besoffener, wahnsinniger, zugekokster, naiver oder überschlauer Googleguy an irgendeiner Schraube und nichts ist mehr wie es vorher war.

Wenn Du bisher kein Probleme hattest, lass es gutsein, kümmere Dich um Dein Baby und lass Google Google sein.

rechtlegal
PostRank 9
PostRank 9
Beiträge: 2874
Registriert: 20.04.2005, 17:23
Wohnort: Tespe / Elbe (daneben ist Hamburg)

Beitrag von rechtlegal » 07.09.2005, 09:13

@Cura

Danke.

OT sehr filosofisch verfasst /OT

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag