Seite 1 von 1

Doppelter Content

Verfasst: 07.08.2005, 00:50
von Scheich
Hallo zusammen,

ich habe eine Mambo Seite vor einigen Tagen von dynamischen Seiten auf statischen Seiten mit SEF Advance umgestellt.

Nun sehe ich das Google sowohl die alten dynamischen Seiten als auch schon ein Teil der neuen Seiten indiziert hat. Meine Befürchtung ist nun, dass Google mich wegen doppelten Content abstraft, obwohl der Content ja nur einmal auf der Seite vorhanden ist.

Wie bekomme ich die dynamischen Seiten denn jetzt aus Google raus, ohne dass ich die komplette Seite aus Google entfernen muss?

Es handelt sich bei der Seite um www.meerschweinchen-portal.de


Lieben Gruß

Ralph

Verfasst:
von

Doppelter Content

Verfasst: 07.08.2005, 07:01
von mario
mit der Weiterleitung 301...

Doppelter Content

Verfasst: 07.08.2005, 08:25
von Mario670
oder einfach warten, wenn die alten von nirgends mehr verlinkt sind, vergißt Google die schon von selbst, ich würd mir da keinen Kopf machen.

Verfasst:
von

Doppelter Content

Verfasst: 07.08.2005, 11:17
von mario
Google ist wie ein Elefant, solche Seiten werden nur schlecht vergessen. Solange sie existieren und nur ein einziger, externer, womöglich unbekannter Link auf die Seiten zeigt, bleibt sie im Index.

Re: Doppelter Content

Verfasst: 07.08.2005, 12:04
von reel
mario hat geschrieben:mit der Weiterleitung 301...
wie funktioniert denn das? ich habe das selbe Problem und hab versucht so viele wie möglich mit der robots.txt zu sperren. er hat dann auch enn haufen entfernt, jedoch nicht alle.

so schaut´s in meiner robots.txt aus (für "User-agent: *" steht das ganze auch nochmal drin)

User-agent: googlebot
Disallow: /search
Disallow: /shout
Disallow: /top
Disallow: /lightbox
Disallow: /boardthread
Disallow: /boardreply
Disallow: /search.php
Disallow: /search.php?
Disallow: /shout.php
Disallow: /shout.php?
Disallow: /top.php
Disallow: /top.php?
Disallow: /lightbox.php
Disallow: /lightbox.php?
Disallow: /boardthread.php
Disallow: /boardthread.php?
Disallow: /boardreply.php
Disallow: /boardreply.php?
Disallow: /search.htm
Disallow: /lightbox.htm
Disallow: /showthread.php
Disallow: /showthread.php?
Disallow: /showboard.php
Disallow: /showboard.php?
Disallow: /board.php
Disallow: /board.php?
Disallow: /categories.php
Disallow: /categories.php?
Disallow: /details.php
Disallow: /details.php?

Verfasst: 07.08.2005, 13:04
von Mario670
womöglich unbekannter Link auf die Seiten zeigt, bleibt sie im Index.
Ja das ist klar, aber es wird ja nicht auf alle alten Unterseiten ein Links sein. Naja und um den DC auf den eigenen Seiten wird auch schnell mal viel Wind gemacht.

Wir haben massen an Seiten wo das so ist, Foren, Shops usw. ist halt nur ne PR Verschwendung

Doppelter Content

Verfasst: 07.08.2005, 16:47
von mario
ich kenne jemanden mit einer sehr bekannten Domain der wegen mehreren Mirrors vor kurzer Zeit alles verloen hat. Er sieht nur noch "weiss" und alle seine Mirror-Domains, ausser einer, sind aus dem Index geflogen. Kenne aber niemanden, der wegen ein paar Seitchen, nachweislich bestraft wurde.

Verfasst: 07.08.2005, 19:04
von Mario670
ich kenne jemanden mit einer sehr bekannten Domain der wegen mehreren Mirrors vor kurzer Zeit alles verloen hat.
Ja ich kenne auch einige die ... sagen wir mal, die dass annehmen ... aber ob das der wirkliche grund ist, weiß halt niemand so richtig.

Ich habe seit ca. 6 Monaten 6 Sieten zum Test, mit einigen bis mehreren DC Seiten online, keiner ist bist dato was passiert. Nehme ich z.B. einfachen Amazon DC ist die Seite nach spätestens 6 Wochen weg.

Also meine Meinung: Eigener DC ist kein Problem, fremder DC wird schnell zum Problem.

Doppelter Content

Verfasst: 08.08.2005, 06:19
von mario
@mario670

interessant was Du da feststellst.

1) Was hast Du im Test? einzelne DC-Seiten oder genze Domains als Mirror?
2) Was wird bei Amazon-DC bestraft? die einzelnen Seiten oder die ganze Domain?
3) Du meinst sicher unter "eigener DC", DC innerhalb der gleichen Domain?

Doppelter Content

Verfasst: 08.08.2005, 14:22
von netnut
Wenn die robots.txt schnell greifen soll muß man sie nur bei Google direkt laden lassen, sonst kann es schonmal eine ganze Weile dauern bis der Bot diese mal wieder saugt und abgearbeitet hat. Wenn man es aber eben forciert, dann sind alle per robots.txt gesperrten Seiten binnen 24 Stunden aus dem index - mache ich immer so und hat bisher auch immer einwandfrei funktioniert.

Doppelter Content

Verfasst: 08.08.2005, 16:45
von Scheich
Hallo,

also, so wie ich das bis jetzt durchgesehen habe, hat Google die alten Seiten schon alleine rausgenommen und die neuen reingenommen. Es sind jetzt noch einige alte drin, aber wohl keine doppelt.

Scheint das Problem lößt sich von alleine......ich werde noch etwas abwarten und beobachten.

Ralph

Doppelter Content

Verfasst: 08.08.2005, 19:08
von Cacator
sehe das nicht so stressig , in vielen Serp sieht man auf Platz eins ein Topic, und auf Platz 2 genau die gleiche Seite als HTML.

Re: Doppelter Content

Verfasst: 11.08.2005, 08:56
von reel
netnut hat geschrieben:Wenn die robots.txt schnell greifen soll muß man sie nur bei Google direkt laden lassen
hi, was meinst du denn mit direkt laden lassen.

Doppelter Content

Verfasst: 11.08.2005, 11:44
von ff-webdesigner
solange du nicht ellenlange gleichbleibende texte hast: spar dir alle arbeit. google ist bei weitem weniger anfällig für zicken durch eigenen verdoppelten content als man glaubt. beweis gerne per pm.

Verfasst: 11.08.2005, 11:50
von cren
Soweit ich weiss sorgt SEF Advance von selbst für den 301er Redirect ;)