Seite 1 von 2

Doppelcontent

Verfasst: 08.11.2005, 10:36
von TheBrainer
Hallo,

ich weiß, das Thema wird oft besprochen, darum auch nur kurze Fragen und mir genügen auch kurze Antworten:

Auf einer meiner Seiten hab ich wohl "versehentlich" Doppelcontent erstellt und G hat mich entsprechend nach hinten geschoben.

Ich habe das jetzt "behoben". Ich habe auch alle internen Links zu dieser Seite gelöscht, aber G hat die Seite immernoch im Cache.


- Erholt sich die gesamte Seite jetzt wieder, nachdem G den Doppelcontent gelöscht hat?

- Ist das der Grund, warum die Seite im allgemeinen etwas abgeruscht ist?

- Ich lasse per URL-Console die Doppelcontent Seite löschen, reicht das, oder sollte ich nochwas anderes machen?


Danke ;)

Verfasst:
von

Doppelcontent

Verfasst: 08.11.2005, 12:41
von axelm
trage es noch in der robots.txt ein,
bau deine site noch ein wenig aus damit der bot sieht, dass da noch ein wenig bewegung ist

Doppelcontent

Verfasst: 08.11.2005, 12:47
von TheBrainer
robots.txt hab ich noch gemacht, die Seite ist fast täglich in Bewegung, ich denke das sollte okay sein..

Aber das erholt sich wieder ja? Oder ist das Keyword jetzt "verbrannt" für diese Seite?

Verfasst:
von

Doppelcontent

Verfasst: 08.11.2005, 12:48
von axelm
JO 3-6 MONATE :)

Doppelcontent

Verfasst: 08.11.2005, 12:56
von TheBrainer
*seufz* das ist aber nicht nett das das so lange dauert..

Mal sehen ob ich G nicht ein wenig ermuntern kann ;)

Vielen Dank erstmal

Doppelcontent

Verfasst: 08.11.2005, 19:02
von wiarus
einer aussage über die dauer kann dir keiner so genau geben. ich denke auch nicht dass du wegen einer doppelten seite nach hintengerutscht bist.

Doppelcontent

Verfasst: 08.11.2005, 19:08
von TheBrainer
Naja warten wir mal ab, was sich dieser Tage noch so bei Google ergibt. Jedenfalls hab ich vorsorglich das ganze mal entfernt.

Teilweise stehe ich bei dem selben KW mit Verlinkungen zu dieser Seite viel besser in den SERPs da..

Abwarten..

Doppelcontent

Verfasst: 08.11.2005, 19:24
von thomie31
Am besten ist es, neuen Inhalt auf die Dublettenadresse zu packen (reicht ja ein Zweizeiler). Dann bist Du das Problem in zwei Tagen los, wenn es daran lag.

Doppelcontent

Verfasst: 08.11.2005, 19:30
von TheBrainer
also nicht löschen, sondern ändern!? Ich warte mal ab wie es morgen aussieht, heute war der Bog ja extrem fleissig.

Verfasst: 08.11.2005, 22:56
von Daniel_74
Hallo,

ich wundere mich, dass man hier nicht anders vorgeht...also:

Ich selbst werde demnächst auch D-Content haben, weil ich URLs aendern moechte, dann gibt es also noch die alten URLs in Google indiziert und die neuen, die der bot dann findet, also wunderschoener DC !

Nun schreibe ich lieber einen 301-Redirect in die htaccess aud die alte URL und dann erlischt automatisch sofort beim nächsten bot-besuch die alte URL und damit das DC-Problem, da eine Abfrage der alten URL automatisch die neue URL anzeigt (habe das erprobt).

Warum soll man sich noch zo viel Mühe mit Löschen und so machen wenns auch einfach geht ?
Oder kann mich jemand eines besseren belehren ?

Verfasst: 09.11.2005, 18:39
von Daniel_74
Hallo,

kann das hier niemand bestätigen oder abstreiten ?

Verfasst: 09.11.2005, 18:56
von blinks
hi,

ich denke nicht, dass das in JEDEM fall so easy ist. ein beispiel: ich hatte bis vor einiger zeit eine meiner seiten intern wie folgt verlinkt:

Code: Alles auswählen

./index.php?cat=x&content=y
nun wollte ich es den sumas etwas einfacher machen, bzw. mehr futter geben, also habe ich mod_rewrite bemüht:

Code: Alles auswählen

RewriteRule ^kategorie/content.html$ /index.php?cat=x&content=y
gelöscht werden sollen nun alle einträge mit index.php?bla... usw. das mod_rewrite schreibt aber die neuen anfragen um. werden dann, wenn ich nen 301er für die alten seiten reinbaue, die neuen überhaupt aufgenommen? intern ist der querry ja im endeffekt gleich...

naja, ich habs dann einfach mal gelassen mit dem 301 und die robots.txt benutzt...

gruß,
blinks

Doppelcontent

Verfasst: 09.11.2005, 19:01
von axelm
den vorschlag von daniel74 finde ich gut, ich würde noch die alten urls in die robots.txt eintragen und das ganz per google console löschen (manchen geht der bot besuch nicht schnell genug und andere haben einfach zuviele alte URLs um die in die robots.txt einzutragen)

Doppelcontent

Verfasst: 09.11.2005, 19:15
von TheBrainer
Mit anderen Worten, das gelöschte Verzeichnis wieder anlegen und dort eine datei ablegen, die dann einen 301 auf das richtige Verzeichnis enthält?

+ robots.txt + url-console

Und dann ist jede Möglichkeit ausgeschöpft?!

Verfasst: 09.11.2005, 19:33
von Daniel_74
Ich denke URL Console geht nicht, da man dafür einen 404 braucht und keinen 301 auf der zu löschenden URL?
Der bot muss ausserdem in jedem Fall vorbei, also gewinnt man da auch an Zeit nichts dazu.
Deswegen plädiere ich nach wie vor eindeutig dazu, einfach einen 301 zu machen, das geht schnell und reibunglos.
Es sei denn hier hat jemand noch andere Erfahrungen !?