Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Doppelcontent

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
TheBrainer
PostRank 2
PostRank 2
Beiträge: 53
Registriert: 09.11.2004, 17:18
Wohnort: Berlin

Beitrag von TheBrainer » 08.11.2005, 10:36

Hallo,

ich weiß, das Thema wird oft besprochen, darum auch nur kurze Fragen und mir genügen auch kurze Antworten:

Auf einer meiner Seiten hab ich wohl "versehentlich" Doppelcontent erstellt und G hat mich entsprechend nach hinten geschoben.

Ich habe das jetzt "behoben". Ich habe auch alle internen Links zu dieser Seite gelöscht, aber G hat die Seite immernoch im Cache.


- Erholt sich die gesamte Seite jetzt wieder, nachdem G den Doppelcontent gelöscht hat?

- Ist das der Grund, warum die Seite im allgemeinen etwas abgeruscht ist?

- Ich lasse per URL-Console die Doppelcontent Seite löschen, reicht das, oder sollte ich nochwas anderes machen?


Danke ;)

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 08.11.2005, 12:41

trage es noch in der robots.txt ein,
bau deine site noch ein wenig aus damit der bot sieht, dass da noch ein wenig bewegung ist

TheBrainer
PostRank 2
PostRank 2
Beiträge: 53
Registriert: 09.11.2004, 17:18
Wohnort: Berlin

Beitrag von TheBrainer » 08.11.2005, 12:47

robots.txt hab ich noch gemacht, die Seite ist fast täglich in Bewegung, ich denke das sollte okay sein..

Aber das erholt sich wieder ja? Oder ist das Keyword jetzt "verbrannt" für diese Seite?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 08.11.2005, 12:48

JO 3-6 MONATE :)

TheBrainer
PostRank 2
PostRank 2
Beiträge: 53
Registriert: 09.11.2004, 17:18
Wohnort: Berlin

Beitrag von TheBrainer » 08.11.2005, 12:56

*seufz* das ist aber nicht nett das das so lange dauert..

Mal sehen ob ich G nicht ein wenig ermuntern kann ;)

Vielen Dank erstmal

wiarus
PostRank 4
PostRank 4
Beiträge: 196
Registriert: 23.09.2005, 15:10

Beitrag von wiarus » 08.11.2005, 19:02

einer aussage über die dauer kann dir keiner so genau geben. ich denke auch nicht dass du wegen einer doppelten seite nach hintengerutscht bist.

TheBrainer
PostRank 2
PostRank 2
Beiträge: 53
Registriert: 09.11.2004, 17:18
Wohnort: Berlin

Beitrag von TheBrainer » 08.11.2005, 19:08

Naja warten wir mal ab, was sich dieser Tage noch so bei Google ergibt. Jedenfalls hab ich vorsorglich das ganze mal entfernt.

Teilweise stehe ich bei dem selben KW mit Verlinkungen zu dieser Seite viel besser in den SERPs da..

Abwarten..

thomie31
PostRank 6
PostRank 6
Beiträge: 487
Registriert: 15.03.2004, 20:17
Wohnort: Berlin

Beitrag von thomie31 » 08.11.2005, 19:24

Am besten ist es, neuen Inhalt auf die Dublettenadresse zu packen (reicht ja ein Zweizeiler). Dann bist Du das Problem in zwei Tagen los, wenn es daran lag.

TheBrainer
PostRank 2
PostRank 2
Beiträge: 53
Registriert: 09.11.2004, 17:18
Wohnort: Berlin

Beitrag von TheBrainer » 08.11.2005, 19:30

also nicht löschen, sondern ändern!? Ich warte mal ab wie es morgen aussieht, heute war der Bog ja extrem fleissig.

Daniel_74
PostRank 5
PostRank 5
Beiträge: 247
Registriert: 30.07.2005, 23:00

Beitrag von Daniel_74 » 08.11.2005, 22:56

Hallo,

ich wundere mich, dass man hier nicht anders vorgeht...also:

Ich selbst werde demnächst auch D-Content haben, weil ich URLs aendern moechte, dann gibt es also noch die alten URLs in Google indiziert und die neuen, die der bot dann findet, also wunderschoener DC !

Nun schreibe ich lieber einen 301-Redirect in die htaccess aud die alte URL und dann erlischt automatisch sofort beim nächsten bot-besuch die alte URL und damit das DC-Problem, da eine Abfrage der alten URL automatisch die neue URL anzeigt (habe das erprobt).

Warum soll man sich noch zo viel Mühe mit Löschen und so machen wenns auch einfach geht ?
Oder kann mich jemand eines besseren belehren ?

Daniel_74
PostRank 5
PostRank 5
Beiträge: 247
Registriert: 30.07.2005, 23:00

Beitrag von Daniel_74 » 09.11.2005, 18:39

Hallo,

kann das hier niemand bestätigen oder abstreiten ?

blinks
PostRank 4
PostRank 4
Beiträge: 155
Registriert: 25.01.2004, 12:37

Beitrag von blinks » 09.11.2005, 18:56

hi,

ich denke nicht, dass das in JEDEM fall so easy ist. ein beispiel: ich hatte bis vor einiger zeit eine meiner seiten intern wie folgt verlinkt:

Code: Alles auswählen

./index.php?cat=x&content=y
nun wollte ich es den sumas etwas einfacher machen, bzw. mehr futter geben, also habe ich mod_rewrite bemüht:

Code: Alles auswählen

RewriteRule ^kategorie/content.html$ /index.php?cat=x&content=y
gelöscht werden sollen nun alle einträge mit index.php?bla... usw. das mod_rewrite schreibt aber die neuen anfragen um. werden dann, wenn ich nen 301er für die alten seiten reinbaue, die neuen überhaupt aufgenommen? intern ist der querry ja im endeffekt gleich...

naja, ich habs dann einfach mal gelassen mit dem 301 und die robots.txt benutzt...

gruß,
blinks

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 09.11.2005, 19:01

den vorschlag von daniel74 finde ich gut, ich würde noch die alten urls in die robots.txt eintragen und das ganz per google console löschen (manchen geht der bot besuch nicht schnell genug und andere haben einfach zuviele alte URLs um die in die robots.txt einzutragen)

TheBrainer
PostRank 2
PostRank 2
Beiträge: 53
Registriert: 09.11.2004, 17:18
Wohnort: Berlin

Beitrag von TheBrainer » 09.11.2005, 19:15

Mit anderen Worten, das gelöschte Verzeichnis wieder anlegen und dort eine datei ablegen, die dann einen 301 auf das richtige Verzeichnis enthält?

+ robots.txt + url-console

Und dann ist jede Möglichkeit ausgeschöpft?!

Daniel_74
PostRank 5
PostRank 5
Beiträge: 247
Registriert: 30.07.2005, 23:00

Beitrag von Daniel_74 » 09.11.2005, 19:33

Ich denke URL Console geht nicht, da man dafür einen 404 braucht und keinen 301 auf der zu löschenden URL?
Der bot muss ausserdem in jedem Fall vorbei, also gewinnt man da auch an Zeit nichts dazu.
Deswegen plädiere ich nach wie vor eindeutig dazu, einfach einen 301 zu machen, das geht schnell und reibunglos.
Es sei denn hier hat jemand noch andere Erfahrungen !?

Antworten