ich möchte per robots.txt bestimmte Dateien ausperren.
Problem:
Die Dateiendungen erhalten eine dynamische ID und andere Parameter. Sie sehen dann z.B. so aus: /verzeichnis/datei1.php?ID=123456 Google & Co. machen also für jede ID eine URL, oder?
Frage:
Wie kann ich die Datei datei1.php ausperren? Reicht es mit "Disallow: /verzeichnis/datei1.php" und alle dahinter hängenden IDs sind automatisch auch gesperrt?
* (sternchen) ist in der robots.txt innerhalb des Befehls "Disallow" ja leider nicht erlaubt

Hat jemand eine Idee?
Gruß
Sven