Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt: wildcards für Dateiparameter (z.B. ID) verwenden

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
new_newbie
PostRank 6
PostRank 6
Beiträge: 413
Registriert: 17.03.2006, 18:48
Wohnort: Weit weg

Beitrag von new_newbie » 10.12.2006, 12:58

Hallo zusammen,

ich möchte per robots.txt bestimmte Dateien ausperren.

Problem:
Die Dateiendungen erhalten eine dynamische ID und andere Parameter. Sie sehen dann z.B. so aus: /verzeichnis/datei1.php?ID=123456 Google & Co. machen also für jede ID eine URL, oder?

Frage:
Wie kann ich die Datei datei1.php ausperren? Reicht es mit "Disallow: /verzeichnis/datei1.php" und alle dahinter hängenden IDs sind automatisch auch gesperrt?

* (sternchen) ist in der robots.txt innerhalb des Befehls "Disallow" ja leider nicht erlaubt :(

Hat jemand eine Idee?

Gruß
Sven