Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Duplicate Content aus dem Index loswerden

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
bluechip
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 11.12.2006, 15:23
Wohnort: Berlin

Beitrag von bluechip » 08.03.2012, 19:57

Hallo in die Runde,

habe ein Problem mit einem Shop: Versehentlich ist jede Menge DC entstanden und auch von Google indexiert worden. Die Site-Abfrage liefert viel mehr Seiten, als es eigentlich sein dürften. Es wurden jetzt schon folgende Maßnahmen ergriffen:

Sämtliche Seiten, die als DC zu betrachten sind, haben ein "noindex" im Header.

Links, die auf die DC-Seiten weisen, haben ein rel=noindex bekommen.

Alles, was als DC zu betrachten ist, wurde durch die robots.txt gesperrt.

Nun aber die Frage: Wie bekomme ich die ganzen URL's aus dem Google Index. Habe ein paar URL's über die URL-Entfernung in den Webmaster-Tools gelöscht - hat funktioniert. Am nächsten Tag wieder weiter gelöscht - dieses mal aber am Folgetag keine Veränderung (warum sind die gelöschten URL's nicht weg, geht doch normalerweise recht schnell). Vielleicht kann das aber auch einfach mal ein bisschen länger dauern?

Habe noch andere Ideen, das los zu werden - z.B. den Code, der den DC verursacht herausnehmen und die URL's, die dann immer noch abgerufen werden können, per mod_rewrite auf eine 404-Seite umleiten. Aber ob das hilft?

Also - gibt's jemanden, der Erfahrung damit hat? Was hilft zuverlässig und effizient, um den ganzen Duplicate-Content los zu werden. Die Seite hat natürlich mit 99%iger Wahrscheinlichkeit einen entsprechenden Filter und der soll so schnell wie möglich verschwinden.

Würde mich über Hilfe in dieser Sache freuen. Experimentieren dauert einfach zu lang.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Barthel
PostRank 9
PostRank 9
Beiträge: 1578
Registriert: 13.10.2010, 21:18

Beitrag von Barthel » 08.03.2012, 20:37

Noindex reicht in der Regel. Wenn du noch Seiten findest, wurden die evtl. einfach noch nicht wieder gecrawlt. Ich habe letzte Woche 50 Kategorieseiten einfach per noindex entfernt und die wurden auch alle an einem Tag rausgenommen. Schau auch mal in die Sitemap, wenn du eine hast. Vielleicht stehen da noch Seiten drin.

Justus
PostRank 5
PostRank 5
Beiträge: 260
Registriert: 04.03.2009, 16:11

Beitrag von Justus » 08.03.2012, 20:40

Keine Panik und abwarten, die Maßnahmen die du beschreibst, reichen absolut aus, um den DC aus dem Index zu nehmen. Google funktioniert nicht in Echtzeit, warte einfach ein paar Tage bis Wochen und das Problem sollte sich von selbst lösen.

Die Sperre mit robots.txt ist nach Matt Cutts nicht unbedingt die beste Lösung.
I would typically not recommend blocking dupes out using robots.txt, that would be sort of the last resort.
- https://www.youtube.com/watch?v=CJMFYpYQZ0c

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag