Google ignoriert mein robots.txt
Verfasst: 10.12.2008, 02:25
Hallo,
habe gerade ein Problem festgestellt. Ich habe in root Verzeichnis brav eine robots.txt hochgeladen, wo ich alle Ordner zu verschiedenen Sprachen sperre, die noch nicht uebersetzt wurden (bzw. noch in Arbeit sind), weil wenn die Bereiche nicht uebersetzt sind, einfach das englische Content mit Warnhinweis oben drueber angezeigt wird und das ist Doppelcontent.
So aehnlich sieht meine robots.txt aus
Was macht Google, ignoriert es geschickt. Ich kann jegliche gesperrte Seiten schon im Google Index sehen.
Wieso ignoriert er meine robots.txt??
Im Index werden die gesperrten Seiten uebrigens nur mit URL angezeigt.
habe gerade ein Problem festgestellt. Ich habe in root Verzeichnis brav eine robots.txt hochgeladen, wo ich alle Ordner zu verschiedenen Sprachen sperre, die noch nicht uebersetzt wurden (bzw. noch in Arbeit sind), weil wenn die Bereiche nicht uebersetzt sind, einfach das englische Content mit Warnhinweis oben drueber angezeigt wird und das ist Doppelcontent.
Code: Alles auswählen
User-agent: *
Disallow: /cn/
Disallow: /es/
Disallow: /hu/
Disallow: /cn
Disallow: /es
Disallow: /hu
Was macht Google, ignoriert es geschickt. Ich kann jegliche gesperrte Seiten schon im Google Index sehen.
Wieso ignoriert er meine robots.txt??
Im Index werden die gesperrten Seiten uebrigens nur mit URL angezeigt.