Ich gehe davon aus, dass Google das ungefähr so macht:
Stichprobenartig verhält sich der Bot wie ein normaler Browser (mitsamt Javascript) und macht eine Art Screenshot, den er wieder zu TExt + Links verwandelt. Das vergleicht er mit dem, was er sonst von der Seite sieht. Die Differenz ist entscheidend, wie die Seite bewertet wird.
Mit so einem Ansatz ist es völlig egal, mit welcher Technik Inhalte versteckt oder hinzugefügt werden. Ob negative margins, display, visibitiy oder überhaupt gleich jQuery oder sonstwas.
Klar wird das aufwändiger sein, aber der Bot muss es ja nur ab & an machen, außerdem sind in aller Regel ja immer die gleichen Teile aller Seiten (zb das Menü) betroffen.
Für mich wiederum bedeutet das: Seiten für Menschen und nicht für Bots machen, und grundsätzlich eine alternative Navigation zur Verfügung stellen.