Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ignoriert google meine Seitenausschlüsse in robots.txt ?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
McMillion
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 20.01.2013, 14:05

Beitrag von McMillion » 24.01.2013, 11:03

Ich habe in meinem Shop technisch bedingt leider einige Doppel-Contents und habe einige Seiten testweise schon vor ein paar Wochen in die Robots.txt eingetragen. Leider scheint das google aber irgendwie zu ignorieren und führt die Seiten weiterhin in den Webmastertools mit doppeltem Title-Tag. Es heißt ja, es dauert einige Tage, bis der google Bot wieder vorbeikommt, aber ich habe diese Änderungen nun schon vor 3 Wochen gemacht und es tut sich einfach nichts.

Woran kann das liegen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

eure_dudeheit
PostRank 2
PostRank 2
Beiträge: 57
Registriert: 10.07.2009, 13:47
Wohnort: Dresden

Beitrag von eure_dudeheit » 24.01.2013, 11:19

Die vorgeschlagenen HTML-Verbesserungen in den Webmaster Tools werden leider nur langsam aktualisiert. Das kann schon mal 2-4 Wochen dauern. Einfach abwarten und Tee trinken ;)
„Entschuldigung, das hätte nicht passieren dürfen“
Magento-Tutorials und ein wenig SEO-Kram

WilliWusel
PostRank 9
PostRank 9
Beiträge: 1257
Registriert: 21.08.2006, 14:55

Beitrag von WilliWusel » 24.01.2013, 17:03

Bereits gespiderte und im Google-Index befindliche Seiten lassen sich nachträglich nicht per robots.txt ausschließen.

Ich schlage vor, Google per canonical tag die jeweils gültige Seite mitzuteilen.