Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt dyn. Unterverzeichnisse

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
friedhelm
PostRank 4
PostRank 4
Beiträge: 187
Registriert: 02.11.2005, 01:41

Beitrag von friedhelm » 03.08.2008, 13:20

Moin,

ich habe per Mod_Rewrite Spezielle Unterverzeichnisse erstellt, /xxx1/datei.php etc. etc.

Wenn ich in den dyn. erzeugten Dirs eine spezielle Datei sperren will, z.B. login.php muss ich folgendes in die robots.txt einfügen?

Disallow: /*/login.php

oder ist der Ansatz falsch?

Danke für jede Hilfe!

Gruss Friedhelm

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Burns
PostRank 5
PostRank 5
Beiträge: 296
Registriert: 10.06.2008, 18:54

Beitrag von Burns » 03.08.2008, 16:19

Hallo,

eine Datei sperren geht mit:
User-agent: *
Disallow: /xxx1/login.php

ein ganzes Verzeichnis:
User-agent: *
Disallow: /xxx1/

aber am besten ist wenn du dynamische Ordner und Seiten mit META sperrst:

<META NAME="robots" content="NOINDEX">

das ist einfacher
Gruß

huah
PostRank 6
PostRank 6
Beiträge: 429
Registriert: 19.04.2007, 21:56

Beitrag von huah » 03.08.2008, 22:40

Der Ansatz ist vollkommen richtig, wenns nur für den Google-Bot sein soll. https://www.google.com/support/webmaste ... swer=40367

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag