ich arbeite im Moment an einem Projekt, welches auf dem CMS Mambo basiert. Dafür bastle ich eigene Komponenten und ein eigenes SEF-System damit die URLs schön aussehen

Was mich im Moment beschäftigt ist folgendes:
Man kommt auf eine Seite oftmals über verschiedene Links (verschiedene Parameter). Das ist nötig, um die Seite dann minimal anzupassen (z.b. weitere Links auf der Seite ein- oder auszublenden). Die Änderungen sind aber so minimal, das ich fürchte Google könnte das als Double Content sehen.
Meine Überlegung ist nun folgende: Ich forme nur die Links um, welche lediglich die ID des anzuzeigenden Inhalts enthalten. Weitere Links, welche zusätzliche Parameter enthalten lasse ich (auch mit eingeschaltetem SEF-System) mit index.php?option=com.... usw. stehen.
Um Double Content auszuschliessen möchte ich den Spidern gern die index.php komplett verbieten. Die Frage ist nun: Was ist am sichersten - in Bezug auf den Ausschluss und die "Gnade" des einlesens für den Rest? Sollte ich in die robots.txt einfach Disallow index.php schreiben? Oder das ganze per .htaccess ausschliessen? Oder habt ihr noch ne ganz andere Idee?