Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URLs aus Suchergebnissen entfernen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
neffetshd
PostRank 4
PostRank 4
Beiträge: 134
Registriert: 30.05.2009, 08:01
Wohnort: Heidelberg

Beitrag von neffetshd » 14.07.2011, 16:16

Wahrscheinlich wurde das Thema hier schon öfter behandelt. Trotzdem habe ich einen speziellen Fall, zu dem ich seit Wochen recherchiere und keine Erklärung finde.

Ich habe eine Website mit ca. 150 Seiten - aber in den Suchergebnissen vertreten mit 1650 URLs.
Darunter viele dynamische URLs. Wenn man diese mit robots.txt blockiert, werden sie weiterhin angezeigt.

Vor 6 bis 8 Wochen habe ich dann einen 410-StatusCode implementiert für alle dynamischen URLs (die robots.txt hat die URLs dann nicht mehr blockiert). Leider werden die URLs in den Suchergebnissen nicht weniger.

Es ist nicht möglich, ein "noindex-Metatag" einzufügen oder alle mit den WMT einzeln zu löschen.

Wie also bekomme ich diese URLs aus dem Index der Suchmaschinen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Justus
PostRank 5
PostRank 5
Beiträge: 260
Registriert: 04.03.2009, 16:11

Beitrag von Justus » 24.07.2011, 02:00

Vielleicht liegt der Fehler in deiner robots.txt oder du hast sie zu vorschnell wieder entfernt, es kann eine Zeit dauern bis Google darauf reagiert und die Seiten aus dem Index nimmt.

Der 410er ist an und für sich der richtige Statuscode dafür, aber ich könnte mir vorstellen dass ein noindex-Metatag als gebräuchlicheres Mittel für derlei Zwecke schnelleren Erfolg hätte.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag