Ich nutze Confixx für meinen Server und bekannterweise legt Confixx neue Subdomains für jedes Web an. Also so: meine Serveradresse lautet: server.meinedomain.de und jedes Web bekommt eine Subdomain in dieser Form: web123.server.meinedomain.de
Die einzelnen Webs bekommen dann eine eigene Domain z.B. web123.de und die Seite läuft. Wenn ich jetzt aber eine Site-Abfrage meiner Serverseite (site:meinedomain.de) bei Google mache, bekomme ich alle Inhalte aller Subdomains (also web123.server.meinedomain.de)
Wie bekomme ich die Inhalte aller Subdomains aus dem Googleindex mit einer robots.txt im Stammverzeichnis von meinedomain.de?
Disallow: web123.server.meinedomain.de/ ist falsch, oder?
Mit einer Robots.txt gar nicht. Außer du versteckst sie hinter einem kleinen Skript, dass schaut ob der Client gerade die web123.de/robots.txt oder die web123.server.meinedomain.de/robots.txt angefordert hat und gibst dementsprechend die normale oder eben eine, die alles verbietet, aus.
Eine 301 Weiterleitung von web123.server.meinedomain.de auf web123.de sollte helfen.