Seite 1 von 1

robots.txt und Unterverzeichnisse

Verfasst: 21.06.2012, 14:58
von assindia
Ich hätte mal´ne Frage zu der robots.txt

Wenn ich ein mehrsprachiges Webprojekt habe, in welchem man jede Seite zusätzlich noch als Druckversion abrufen kann, wie ist es richtig dieses Verzeichnis auszuschließen?

Problem ist folgender Aufbau:

www.domain.com/de/print
www.domain.com/fr/print
www.domain.com/es/print
...

Wenn ich das Verzeichnis print komplett ausschließen möchte, reicht dann folgende Angabe:

Disallow: /print/

oder muss ich einen Platzhalter verwenden, da /print/ nicht auf der untersten Ebene ist?

Disallow: /*/print/

Aktuell wird die obere Version genutzt, dennoch befinden sich recht viele Seiten im Google Index, die dort eigentlich nicht sein sollten. Daher frage ich mich, ob ggfs. die 2. Alternative korrekt wäre?

über eure Hilfe würde ich mich freuen.

Gruß assindia

Verfasst:
von

Verfasst: 21.06.2012, 15:09
von assindia
Besten Dank für die schnelle Hilfe! Falls noch jemand Erfahrung mit dem Sternchen vor dem Ordner hat, nicht zu schüchtern ;)

Verfasst: 21.06.2012, 15:16
von om-labs
Das hier funzt.
Disallow: *print

schliesst dann aber nicht nur den Ordner print aus, sonder alle was print in der URL hat.

ob deine Version mit Sternchen vor dem Ordner also */print/
geht, glaube ich nicht.

Verfasst: 21.06.2012, 21:46
von marco1492
Schreibe doch die ganze Liste der Ordner in die robots... soviele Sprachen wirst du ja nicht haben... also,

Dilsallow: es/print
Dilsallow: fr/print
Dilsallow: de/print