Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

content-dubletten: wie gross darf ein textblock sein?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
ff-webdesigner
PostRank 6
PostRank 6
Beiträge: 433
Registriert: 30.01.2004, 07:34
Wohnort: Regensburg

Beitrag von ff-webdesigner » 18.09.2004, 17:07

tach beisammen!

google mag keine dubletten. ich frage mich:
1. nur komplett doppelt existente domains oder auch
2. doppelt existente dateien oder auch
3. dateien mit gleichen text-inhaltsblöcken

ich bin mir ja ziemlich sicher, dass google sicher auch schon zu grosse gleiche textblöcke als dubletten erkennt und dann die betreffende html-seite aus dem index haut.

meine fragen:

wie gross darf ein textblock sein, der beliebig oft auf einer homepage vorkommen darf, ohne dass google betreffende html-seite als dublette aus den serps kickt?

wie weit kann google vergleiche zwischen textinhalten verschiedener dateien durchführen?
ff-webdesigner.de: Webdesign aus Regensburg und München

Suche keine Linkpartner oder indische SEOs!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Jaro
PostRank 2
PostRank 2
Beiträge: 32
Registriert: 07.04.2004, 00:29
Wohnort: Bamberg

Beitrag von Jaro » 18.09.2004, 17:19

Meiner Meinung nach gibt es keinen Doubleten-Filter.

Oder warum gibt es dutzende Mirrors von Wikipedia, die im Index sind?
Die SelfHtml Mirrors sind auch sehr gut im Index vertreten.

Auf jeder Nachrichtenseite findet man Artikel von der DPA oder DDP - (also Doubleten-Textblöcke).

Ausserdem könnte ich Konkurenten evtl. schlechter machen indem ich deren Content via Cloaking in Massen doubletiere.

Desweiteren kann ich mir nicht vorstellen, dass google soviel Rechenpower zur Verfügung steht, die einen solchen Doubleten-Filter umsetzen könnte. (das ist ein enormer Serveraufwand um Doubleten-Blöcke in bestimmten Seiten zu finden).

Oder ist hier jemand anderer Meinung und kann mir die Mirror Sache erklären?

Jaro

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 18.09.2004, 17:42

Hallo ff-webdesigner!

Also allgemein: Google ist in der Lage richtig gut die jeglichen Dubletten zu erkennen.

Code: Alles auswählen

wie gross darf ein textblock sein, der beliebig oft auf einer homepage vorkommen darf, ohne das google betreffende html-seite als dublette aus den serps kickt? 
- Das lässt sich nicht so pauschal beantworten, es werden schließlich die kompletten Strukturen von der jeweiligen Domain verglichen... Ansonsten kann ich nur wiederholen: je mehr man von dem eigenem und unterschiedlichem Kontext hat, desto besser ist es!

Code: Alles auswählen

wie weit kann google vergleiche zwischen textinhalten verschiedener dateien durchführen?
sehr weit! :lol: Also wie gesagt richtig gut!

Man darf ja nicht vergessen: Der Fakt, dass die Seite in Google-Index vorhanden ist, obwohl man die Dubletten-Texte nutzt, heißt noch lange nicht, dass der Google es nicht weißt und auch nicht, dass diese positiv von Google aufgenommen oder akzeptiert wurde...

Also eigene und "einzigartige" Inhalte nutzen!

Grüsse
Hasso

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Mario670
PostRank 9
PostRank 9
Beiträge: 1006
Registriert: 30.04.2004, 20:46
Wohnort: Neu Duvenstedt

Beitrag von Mario670 » 18.09.2004, 18:28

Ich habe auch diverse Dubletten im Netz, nie wurde eine aus dem Index entfernt. Testweise hab ich auch mit Absicht Dubletten erstellt und diese an Google gemeldet ... nie wurden diese entfernt.

Meine ältesten Dubletten sind über 4 Jahre alt, also ich galub da auch nicht dran
Bild
SEOigg ... SEO News satt

HW
PostRank 8
PostRank 8
Beiträge: 761
Registriert: 04.04.2004, 08:00
Wohnort: Viersen

Beitrag von HW » 18.09.2004, 19:15

..ich habe ein Glossar erstellt und identisch auf 2 meiner Webs gestellt.
Beide wurden in den Index aufgenommen, eines war jedoch nach einer Woche aus dem Index verschwunden und wurde auch nicht mehr aufgenommen.

Die beiden Webs hatten die gleiche IP und waren untereinander verlinkt.

buttheads
PostRank 6
PostRank 6
Beiträge: 385
Registriert: 28.01.2004, 13:22
Wohnort: Düsseldorf

Beitrag von buttheads » 18.09.2004, 19:59

wieviel doubletten braucht das Web?

Als Suchender bei den Suchmaschinen bin ich angepisst, wenn ich das gleiche zweimal finde ...

schaulmeier
PostRank 5
PostRank 5
Beiträge: 224
Registriert: 14.01.2004, 13:06

Beitrag von schaulmeier » 18.09.2004, 23:06

ich gehe davon aus, dass die auswertung von dubletten nicht bei der erstellung des index erfolgt, sondern bei erstellung der serps - erst dann werden dopplungen entfernt

wenn man sich such-phrasen nimmt, die nur sehr wenige treffer haben, kommt man nach dem letzten ergebnis auf einen link "Sie können bei Bedarf die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen."
danach werden solche dubletten wieder eingeblendet. Bei stark besetzten suchworten wird wohl selten jemand diesen link nutzen können.

Pagemaker
PostRank 9
PostRank 9
Beiträge: 1092
Registriert: 02.12.2003, 03:05
Wohnort: Freistaat Bayern

Beitrag von Pagemaker » 18.09.2004, 23:13

.
Nehmt einen Satz aus Eurem Text, gebt den ganzen Satz in Google-Suchmaske ein, dann werdet Ihr zum Teil stauen, wer alles den Text geklaut hat.
Dabei findet man leicht Contentklauer - Daten sichern - ab zum Anwalt - Abmahnung und Schadenersatzforderungen raus gehen lassen.......

Meine Art, die Aufmerksamkeit, die ich erhalte, zu "danken".

Gruß v. "Pagemaker"
.

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 18.09.2004, 23:16

Ich habe bemerkt..das doppelter Text nur als doppelt gesehen wird..wenn die Seite das selbe Design hat.


Macht ja auch Sinn.

Stellt Euch mal vor..Google würde alle Artikel eines Herstellers die doppelt vorkommen filtern. Dann könnten wohl alle Shops zumachen. Ist doch überall der selbe Text drinne.

Gruß Scubi

Pagemaker
PostRank 9
PostRank 9
Beiträge: 1092
Registriert: 02.12.2003, 03:05
Wohnort: Freistaat Bayern

Beitrag von Pagemaker » 18.09.2004, 23:26

.
@- Scubi:

Scubi,
dann probiere es aus.............
Deshalb sind ja diese Seiten mit gleichem Texten schlecht gelistet.
OK, wer stur sein will, soll es bleiben, sollte aber auch nicht fragen.

Gruß v. "Pagemaker"
.

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 19.09.2004, 00:18

Hallo,

ich habe nicht gefragt..das war ne Feststellung.

Ich komme aus einer anderen Branche..aber die meisten Computershops holen sich per Parser den Textinhalt inkl. Bilder.

Bei 20.000 Artikeln hat man da auch kaum ne andere Möglichkeit.

In meiner Branche muß man das leider noch von Hand machen.

Wenn Google all diese Seiten filtern würde....dann würde es keine Shops sondern nur den Hersteller in Google geben.

Das spricht dafür..das anderes Design mit selben Inhalt hilft.

Gruß Scubi

Pagemaker
PostRank 9
PostRank 9
Beiträge: 1092
Registriert: 02.12.2003, 03:05
Wohnort: Freistaat Bayern

Beitrag von Pagemaker » 19.09.2004, 00:32

.
@- Scubi:

Ach, lustig ist es hier!
Junge, nichts spricht dagegen, wenn Du die Erlaubnis dazu hast.
Was dagegen spricht, wissen die Insider, und Du brauchst es ja nicht zu wissen, wie mir scheint.................

Meinem Nachbarn sagte ich einmal, wenn er diese Gartenanlage so läßt, wie er sie gebaut hat, wird er eines Tages einen wassergefüllten Keller haben.
Er wollte es nicht glauben und hatte dann sein kostenloses Schwimmbad nach dem Unwetter - im Keller.

Mami hat immer gesagt:
"Wer nicht hören will, muß fühlen".

Danke, Mami, ich habe immer daran gedacht und auf dich gehört!

Gruß v. "Pagemaker"
.

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 19.09.2004, 01:00

???

Was läuft hier gerade aus dem Ruder?

Ich nutze keinen Parser. Die von denen ich gesprochen habe...haben die Erlaubnis.

Und nutzen ein eigenes Design.

Wenn ich Dir durch irgend eine Ausage ans Bein gepinkelt habe sag es..war nicht meine Absicht.

Wenn ich was nicht weiß..bitte ich um konkrete Aufklärung.

Bisher hat Dein Posting zu keiner weiteren Erkenntnis geführt.

Außer das man seinen Keller vor Unwetter schützen sollte.

Gruß Scubi

Pagemaker
PostRank 9
PostRank 9
Beiträge: 1092
Registriert: 02.12.2003, 03:05
Wohnort: Freistaat Bayern

Beitrag von Pagemaker » 19.09.2004, 02:10

@- Scubi:

Scubi,
erst einmal:
Schinde mit Deinen Leerzeilen nicht so viel Platz, was Du auf Deiner Page natürlich darfst, damit die Leute denken, es wäre viel, is'set aber nicht.
Nein, an's Bein hast Du mich nicht gepinkelt, denn beide Beine sind noch trocken.
Aber wenn Du so weiter machst, pinkle ich mir bald selbst in die Hose.
Jedoch ist es schon allerhand, wenn Du durch mich nun bei Unwetter an Deinen Keller denkst, nicht?

Spaß bei Seite:
Was hat (wie von Dir weiter oben geschrieben) Text mit Design zu tun?
Meinst Du die SUMAS kieken nach Deinem Design?
(Ausnahme: Editoren von Katalogen und die User.)
Wie kommst Du darauf, in Shops müßten überall gleichlautende Texte sein?
Mag ja sein, daß es oft so ist - aber die stehen dafür auch am "Arsch" der Welt Schlange, wenn nicht gerade einer vom Spiegel und Bildzeitung angelinkt wird.
Wenn auf 20.000 Shops steht:
"Kaufen Sie das Spar-Auto Chevrolet Suburban Geländewagen, der verbraucht nur 30 Liter pro 100 Kilometer - (Nicht im Monat!)".
So, nun stehen alle 20.000 Shops auf dem 1. Platz?
Ist es dafür nicht ein biss'le eng?
Aber, Du willst gleiche Mühle verkaufen (die ich einmal selbst fast 10 Jahre lang hatte):
Textvorschlag:
"Geländewagen Chevrolet Suburban verbraucht mit seinen 8 Zylindern und 7 Litermaschine zwar 30 Liter Kraftstoff, jedoch gelangen Sie damit überall hin, außer zum Mond, und bietet Ihnen Schutz als würden Sie im Panzer sitzen."
Damit sitzt Du bei Google vielleicht nicht gerade auf dem ersten Platz, aber sicher vor den anderen 20.000 Shop-Copyseiten.
Hat's jetzt bei Dir geschnackelt?
Du suchst doch hier nur die Bestätigung zur bequemen Arbeit:
Kopieren + Einfügen.
Diese Bestätigung kann ich (vielleicht nur ich?) Dir leider nicht geben.
Verstehst Du jetzt, warum mich Deine Zeilen belustigten?

Gruß v. "Pagemaker"
.

fredde
PostRank 4
PostRank 4
Beiträge: 188
Registriert: 25.02.2004, 08:25

Beitrag von fredde » 19.09.2004, 06:14

<<google mag keine dubletten. ich frage mich:
<<1. nur komplett doppelt existente domains oder auch
<<2. doppelt existente dateien oder auch
<<3. dateien mit gleichen text-inhaltsblöcken

da fehlen noch einige optionen ;). google kann (=persönliche vermutung, aufgrund von beobachtungen erhärtet aber nicht empirisch nachgewiesen) einzelne satzbausteine, wenn nicht sogar wörter, u.U. auch unter zuhilfenahme einer semantischen analyse, sozusagen dem ursprung (=der datenbank) zuweisen, und erkennen, ob die seiten dynamisch oder manuell generiert worden sind. das dauert? ja klar, kein wunder, dass die PR-berechnung nun in einem anderen zyklus stattfindet...wer´s besser weiss, soll doch machen, was er will ;)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag