das noindex in den metas wäre die richtige lösung... denn das ist ja das was du erreichen möchtest... seiten noch da aber raus aus dem index...
sperrung über robots.txt würde die seiten nicht unbedingt aus dem index entfernen, hier findest du weitere infos zu den Unterschieden zwischen noindex und sperrung per robots.txt: https://www.martins-meinung.de/2007/01/ ... wirkungen/
Falls die noindex-Lösung nicht gehen sollte, wären noch Wildcards in der robots.txt denkbar. Sicherer ist in jedem Fall aber ein noindex. 404-Header wäre alternativ auch noch denkbar, weil im Browser noch aufrufbar (allerdings dann ohne Weiterleitung).