Seite 1 von 1

robots.txt dyn. Unterverzeichnisse

Verfasst: 03.08.2008, 13:20
von friedhelm
Moin,

ich habe per Mod_Rewrite Spezielle Unterverzeichnisse erstellt, /xxx1/datei.php etc. etc.

Wenn ich in den dyn. erzeugten Dirs eine spezielle Datei sperren will, z.B. login.php muss ich folgendes in die robots.txt einfügen?

Disallow: /*/login.php

oder ist der Ansatz falsch?

Danke für jede Hilfe!

Gruss Friedhelm

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 03.08.2008, 16:19
von Burns
Hallo,

eine Datei sperren geht mit:
User-agent: *
Disallow: /xxx1/login.php

ein ganzes Verzeichnis:
User-agent: *
Disallow: /xxx1/

aber am besten ist wenn du dynamische Ordner und Seiten mit META sperrst:

<META NAME="robots" content="NOINDEX">

das ist einfacher
Gruß

Verfasst: 03.08.2008, 22:40
von huah
Der Ansatz ist vollkommen richtig, wenns nur für den Google-Bot sein soll. https://www.google.com/support/webmaster ... swer=40367