robots.txt und Unterverzeichnisse
Verfasst: 21.06.2012, 14:58
Ich hätte mal´ne Frage zu der robots.txt
Wenn ich ein mehrsprachiges Webprojekt habe, in welchem man jede Seite zusätzlich noch als Druckversion abrufen kann, wie ist es richtig dieses Verzeichnis auszuschließen?
Problem ist folgender Aufbau:
www.domain.com/de/print
www.domain.com/fr/print
www.domain.com/es/print
...
Wenn ich das Verzeichnis print komplett ausschließen möchte, reicht dann folgende Angabe:
Disallow: /print/
oder muss ich einen Platzhalter verwenden, da /print/ nicht auf der untersten Ebene ist?
Disallow: /*/print/
Aktuell wird die obere Version genutzt, dennoch befinden sich recht viele Seiten im Google Index, die dort eigentlich nicht sein sollten. Daher frage ich mich, ob ggfs. die 2. Alternative korrekt wäre?
über eure Hilfe würde ich mich freuen.
Gruß assindia
Wenn ich ein mehrsprachiges Webprojekt habe, in welchem man jede Seite zusätzlich noch als Druckversion abrufen kann, wie ist es richtig dieses Verzeichnis auszuschließen?
Problem ist folgender Aufbau:
www.domain.com/de/print
www.domain.com/fr/print
www.domain.com/es/print
...
Wenn ich das Verzeichnis print komplett ausschließen möchte, reicht dann folgende Angabe:
Disallow: /print/
oder muss ich einen Platzhalter verwenden, da /print/ nicht auf der untersten Ebene ist?
Disallow: /*/print/
Aktuell wird die obere Version genutzt, dennoch befinden sich recht viele Seiten im Google Index, die dort eigentlich nicht sein sollten. Daher frage ich mich, ob ggfs. die 2. Alternative korrekt wäre?
über eure Hilfe würde ich mich freuen.
Gruß assindia