Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt vs. Metatag - Seiten wieder entfernen?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Less
PostRank 2
PostRank 2
Beiträge: 50
Registriert: 01.04.2005, 01:08

Beitrag von Less » 16.05.2005, 12:50

Hallo!

Ich habe in der robots.txt alle Spider angewiesen spezielle Seiten nicht zu indexieren.
Auf diesen Seiten selbst hatte ich vor einiger Zeit, aber per Meta-Tag festgelegt, dass die Seiten sowohl gespidert und indexiert werden und diese Metatags beim Umbau übersehen und nicht entfernt.
Jetzt habe ich, da die genannten Seiten indexiert wurden, massig double-content im Google-Index.

Und jetzt meine Frage: Wenn ich einfach den entsprechenden Metatag entferne, verschwinden dann die aus versehen indexierten Seiten wieder aus dem Index (sie sind schließlich in der robots.txt verboten) oder kann ich das Problem auf eine andere Weise lösen?

Viele Grüße!

Less

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

ollipop
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 21.03.2004, 13:30
Wohnort: Herzogenrath

Beitrag von ollipop » 16.05.2005, 16:11

So wie du das beschreibst hat bei mir geklappt. Allerdings dauerte das ein Weilchen bei mir, bis die Seiten aus dem Index entfernt wurden.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag