Der Vorteil von disallow wäre lediglich, daß sich exotische Crawler tendenziell eher an die Angaben in der robots.txt halten während noindex und nofollow teilweise ignioriert werden...aber bei der Bedeutung von Suchmaschinen abseits von Google, Yahoo und MSN/Live ist das eigentlich herzlich wurscht.
Forward Up>> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM
noindex: die Seite erschaint nicht im Index (unter keinen Umständen)
nofollow: Links auf der Seite werden nicht verfolgt/gewertet/whatever
disallow: Der Bot crawlt die Seite nicht. Wenn aber externe Links drauf zeigen, kann es durchaus sein, dass die URL in den Serps erscheint.
Ich bin mir nicht ganz sicher, ob Google das meta-nofollow korrekt beachtet, also die Links gar nicht erst mitnimmt. Wenn du zuviel Last auf dem Server hast, ist robots.txt sicher die bessere Variante, ansonsten sind vom Indexierungsverhalten beide etwa gleich.
Die robots.txt sperrt nichts, kann sie auch nicht sperren.
Sie ist lediglich eine "Bitte" etwas nicht zu tun. Brave Bots halten sich daran, böse nicht.
Sperren kannst du nur mit .htaccess.
"disallow" = "Zugriff nicht erlaubt".
Sofern sich Bots daran halten, greifen sie überhaupt nicht drauf zu.
Also auch kein "noindex" und kein "nofollow".