Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Doppelter Content

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Scheich
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 26.06.2004, 13:53
Wohnort: Bochum

Beitrag von Scheich » 07.08.2005, 00:50

Hallo zusammen,

ich habe eine Mambo Seite vor einigen Tagen von dynamischen Seiten auf statischen Seiten mit SEF Advance umgestellt.

Nun sehe ich das Google sowohl die alten dynamischen Seiten als auch schon ein Teil der neuen Seiten indiziert hat. Meine Befürchtung ist nun, dass Google mich wegen doppelten Content abstraft, obwohl der Content ja nur einmal auf der Seite vorhanden ist.

Wie bekomme ich die dynamischen Seiten denn jetzt aus Google raus, ohne dass ich die komplette Seite aus Google entfernen muss?

Es handelt sich bei der Seite um www.meerschweinchen-portal.de


Lieben Gruß

Ralph

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 07.08.2005, 07:01

mit der Weiterleitung 301...

Mario670
PostRank 9
PostRank 9
Beiträge: 1006
Registriert: 30.04.2004, 20:46
Wohnort: Neu Duvenstedt

Beitrag von Mario670 » 07.08.2005, 08:25

oder einfach warten, wenn die alten von nirgends mehr verlinkt sind, vergißt Google die schon von selbst, ich würd mir da keinen Kopf machen.
Bild
SEOigg ... SEO News satt

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 07.08.2005, 11:17

Google ist wie ein Elefant, solche Seiten werden nur schlecht vergessen. Solange sie existieren und nur ein einziger, externer, womöglich unbekannter Link auf die Seiten zeigt, bleibt sie im Index.

reel
PostRank 4
PostRank 4
Beiträge: 135
Registriert: 22.09.2004, 15:50

Beitrag von reel » 07.08.2005, 12:04

mario hat geschrieben:mit der Weiterleitung 301...
wie funktioniert denn das? ich habe das selbe Problem und hab versucht so viele wie möglich mit der robots.txt zu sperren. er hat dann auch enn haufen entfernt, jedoch nicht alle.

so schaut´s in meiner robots.txt aus (für "User-agent: *" steht das ganze auch nochmal drin)

User-agent: googlebot
Disallow: /search
Disallow: /shout
Disallow: /top
Disallow: /lightbox
Disallow: /boardthread
Disallow: /boardreply
Disallow: /search.php
Disallow: /search.php?
Disallow: /shout.php
Disallow: /shout.php?
Disallow: /top.php
Disallow: /top.php?
Disallow: /lightbox.php
Disallow: /lightbox.php?
Disallow: /boardthread.php
Disallow: /boardthread.php?
Disallow: /boardreply.php
Disallow: /boardreply.php?
Disallow: /search.htm
Disallow: /lightbox.htm
Disallow: /showthread.php
Disallow: /showthread.php?
Disallow: /showboard.php
Disallow: /showboard.php?
Disallow: /board.php
Disallow: /board.php?
Disallow: /categories.php
Disallow: /categories.php?
Disallow: /details.php
Disallow: /details.php?

Mario670
PostRank 9
PostRank 9
Beiträge: 1006
Registriert: 30.04.2004, 20:46
Wohnort: Neu Duvenstedt

Beitrag von Mario670 » 07.08.2005, 13:04

womöglich unbekannter Link auf die Seiten zeigt, bleibt sie im Index.
Ja das ist klar, aber es wird ja nicht auf alle alten Unterseiten ein Links sein. Naja und um den DC auf den eigenen Seiten wird auch schnell mal viel Wind gemacht.

Wir haben massen an Seiten wo das so ist, Foren, Shops usw. ist halt nur ne PR Verschwendung
Bild
SEOigg ... SEO News satt

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 07.08.2005, 16:47

ich kenne jemanden mit einer sehr bekannten Domain der wegen mehreren Mirrors vor kurzer Zeit alles verloen hat. Er sieht nur noch "weiss" und alle seine Mirror-Domains, ausser einer, sind aus dem Index geflogen. Kenne aber niemanden, der wegen ein paar Seitchen, nachweislich bestraft wurde.

Mario670
PostRank 9
PostRank 9
Beiträge: 1006
Registriert: 30.04.2004, 20:46
Wohnort: Neu Duvenstedt

Beitrag von Mario670 » 07.08.2005, 19:04

ich kenne jemanden mit einer sehr bekannten Domain der wegen mehreren Mirrors vor kurzer Zeit alles verloen hat.
Ja ich kenne auch einige die ... sagen wir mal, die dass annehmen ... aber ob das der wirkliche grund ist, weiß halt niemand so richtig.

Ich habe seit ca. 6 Monaten 6 Sieten zum Test, mit einigen bis mehreren DC Seiten online, keiner ist bist dato was passiert. Nehme ich z.B. einfachen Amazon DC ist die Seite nach spätestens 6 Wochen weg.

Also meine Meinung: Eigener DC ist kein Problem, fremder DC wird schnell zum Problem.
Bild
SEOigg ... SEO News satt

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 08.08.2005, 06:19

@mario670

interessant was Du da feststellst.

1) Was hast Du im Test? einzelne DC-Seiten oder genze Domains als Mirror?
2) Was wird bei Amazon-DC bestraft? die einzelnen Seiten oder die ganze Domain?
3) Du meinst sicher unter "eigener DC", DC innerhalb der gleichen Domain?

netnut
PostRank 9
PostRank 9
Beiträge: 1931
Registriert: 30.10.2004, 01:24

Beitrag von netnut » 08.08.2005, 14:22

Wenn die robots.txt schnell greifen soll muß man sie nur bei Google direkt laden lassen, sonst kann es schonmal eine ganze Weile dauern bis der Bot diese mal wieder saugt und abgearbeitet hat. Wenn man es aber eben forciert, dann sind alle per robots.txt gesperrten Seiten binnen 24 Stunden aus dem index - mache ich immer so und hat bisher auch immer einwandfrei funktioniert.

Scheich
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 26.06.2004, 13:53
Wohnort: Bochum

Beitrag von Scheich » 08.08.2005, 16:45

Hallo,

also, so wie ich das bis jetzt durchgesehen habe, hat Google die alten Seiten schon alleine rausgenommen und die neuen reingenommen. Es sind jetzt noch einige alte drin, aber wohl keine doppelt.

Scheint das Problem lößt sich von alleine......ich werde noch etwas abwarten und beobachten.

Ralph

Cacator
PostRank 5
PostRank 5
Beiträge: 230
Registriert: 06.06.2005, 15:02

Beitrag von Cacator » 08.08.2005, 19:08

sehe das nicht so stressig , in vielen Serp sieht man auf Platz eins ein Topic, und auf Platz 2 genau die gleiche Seite als HTML.

reel
PostRank 4
PostRank 4
Beiträge: 135
Registriert: 22.09.2004, 15:50

Beitrag von reel » 11.08.2005, 08:56

netnut hat geschrieben:Wenn die robots.txt schnell greifen soll muß man sie nur bei Google direkt laden lassen
hi, was meinst du denn mit direkt laden lassen.

ff-webdesigner
PostRank 6
PostRank 6
Beiträge: 433
Registriert: 30.01.2004, 07:34
Wohnort: Regensburg

Beitrag von ff-webdesigner » 11.08.2005, 11:44

solange du nicht ellenlange gleichbleibende texte hast: spar dir alle arbeit. google ist bei weitem weniger anfällig für zicken durch eigenen verdoppelten content als man glaubt. beweis gerne per pm.
ff-webdesigner.de: Webdesign aus Regensburg und München

Suche keine Linkpartner oder indische SEOs!

cren
PostRank 6
PostRank 6
Beiträge: 379
Registriert: 04.06.2005, 16:30

Beitrag von cren » 11.08.2005, 11:50

Soweit ich weiss sorgt SEF Advance von selbst für den 301er Redirect ;)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag