Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google ignoriert mein robots.txt

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
kam1
PostRank 2
PostRank 2
Beiträge: 63
Registriert: 17.07.2005, 12:57

Beitrag von kam1 » 10.12.2008, 02:25

Hallo,

habe gerade ein Problem festgestellt. Ich habe in root Verzeichnis brav eine robots.txt hochgeladen, wo ich alle Ordner zu verschiedenen Sprachen sperre, die noch nicht uebersetzt wurden (bzw. noch in Arbeit sind), weil wenn die Bereiche nicht uebersetzt sind, einfach das englische Content mit Warnhinweis oben drueber angezeigt wird und das ist Doppelcontent.

Code: Alles auswählen

User-agent: *
Disallow: /cn/
Disallow: /es/
Disallow: /hu/
Disallow: /cn
Disallow: /es
Disallow: /hu
So aehnlich sieht meine robots.txt aus

Was macht Google, ignoriert es geschickt. Ich kann jegliche gesperrte Seiten schon im Google Index sehen.

Wieso ignoriert er meine robots.txt??

Im Index werden die gesperrten Seiten uebrigens nur mit URL angezeigt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

wehwehweh
PostRank 9
PostRank 9
Beiträge: 1748
Registriert: 08.02.2008, 19:01

Beitrag von wehwehweh » 10.12.2008, 08:03

Im Index werden die gesperrten Seiten uebrigens nur mit URL angezeigt.
das ist normalerweise der fall wenn du die irgendwo verlinkt hast.

no.f8
PostRank 2
PostRank 2
Beiträge: 36
Registriert: 02.04.2008, 12:45

Beitrag von no.f8 » 10.12.2008, 10:14

Werden die Seiten bei regulären Searches oder Site-Abfragen angezeigt? Bei Site-Abfragen ist es idR normal, dass die gesperrten Seiten mit auftauchen, wenn sie kein dezidiertes noindex haben.

Ansonsten den Google-Bot mal separat als Agent angeben.