Vielleicht habe ich Deine Frage auch nicht richtig verstanden?
Aber, warum ordnest Du nicht Domain A dem Pfad /main zu und erstellt im Ordner /main eine robots.txt für diese Domain. Dann ordnest Du die Domain B den Pfad /neu zu und dort ebenfalls eine robots.txt. Dazu legst Du die Dateien aus dem Root jeweils in die dazugehörigen Verzeichnisse!
Und weiter:
Du kannst in den Google Webmaster Tools, im Abschnitt Robots, deine URLs zum Test eintragen und prüfen, ob diese gecrawlt werden können oder nicht.