gibt es eine möglichkeit, Seiteninhalte auf einer Seite dringend vor Robotern zu verstecken, es geht darum, dass Nutzer ab und an versehentlich private Daten freigeben und die bei google nicht gefunden werden sollen.
Du kannst die ganzen Seiten ausschließen. Worum geht es denn? Profilseiten oder so? Denn beispielsweise bei Forenbeiträgen kann man sowas ja ohnehin nicht automatisiert ablaufen lassen, *falls* mal jemand was Privates postet. Dann kann man das eher als Moderator wegeditieren.
Und im Übrigen könnten ja auch andere Leute, die die Daten lesen, die anderswo wiedergeben, missbrauchen etc. - quasi menschliche Bots.
Weise die Nutzer darauf hin (Datenschutzerklärung nicht vergessen!), sperre wie gesagt ggf. Profilseiten von der Indexierung aus, na ja und deren "Doofheit", wenn sie selbst doch was veröffentlichen, sollte dann nicht mehr Dein Bier sein. Wenn jemand seine Reputation über merkwürdige studiVZ-Gruppen ruiniert, ist es ja auch sein ureigenstes Problem. Manche Leute muss man zwar echt vor sich selbst schützen, aber irgendwo hat alles seine Grenzen.