Seite 1 von 1

robots.txt dyn. Unterverzeichnisse

Verfasst: 03.08.2008, 13:20
von friedhelm
Moin,

ich habe per Mod_Rewrite Spezielle Unterverzeichnisse erstellt, /xxx1/datei.php etc. etc.

Wenn ich in den dyn. erzeugten Dirs eine spezielle Datei sperren will, z.B. login.php muss ich folgendes in die robots.txt einfügen?

Disallow: /*/login.php

oder ist der Ansatz falsch?

Danke für jede Hilfe!

Gruss Friedhelm

Verfasst:
von

Verfasst: 03.08.2008, 16:19
von Burns
Hallo,

eine Datei sperren geht mit:
User-agent: *
Disallow: /xxx1/login.php

ein ganzes Verzeichnis:
User-agent: *
Disallow: /xxx1/

aber am besten ist wenn du dynamische Ordner und Seiten mit META sperrst:

<META NAME="robots" content="NOINDEX">

das ist einfacher
Gruß

Verfasst: 03.08.2008, 22:40
von huah
Der Ansatz ist vollkommen richtig, wenns nur für den Google-Bot sein soll. https://www.google.com/support/webmaste ... swer=40367