gecrawlt werden kann nur, was du (dein php-Script) produzierst und! zuläßt.
Durch z.B.
User-agent: Googlebot
Disallow: /*?
in der .htaccess wird Googlebot gebeten, alle dynamischen URLs, die er ansonsten ja erreichen und indizieren kann, nicht aufzunehmen.
Klar aber, dass damit die Erreichbarkeit der einzelnen Seiten durch sinnvolle Short-URLs gegeben sein muss. Doppelpunkte haben keinen Nährwert, ähm Informationsgehalt, selbst wenn du tausend verwendest.
Also schöner:
https://www.jasan.de/ringe-7.html oder
https://www.jasan.de/armkettchen/edelst ... la-85.html (das sieht aber bereits nach URL-Spam aus, denn wodurch begründet sich diese unsinnige Strukturtiefe?)
Denke auch an Keyworddichte ... Stichwort Verwässerung, sprechende Short!-URLs usw. Nicht immer alles haben wollen und dann nichts (keine Kunden) erhalten...
Die .htaccess dagegen verwendest du, damit Google mit deinen gelisteten Short-URLs die richtige PHP-Seite auf dem Server findet.