net(t)worker hat geschrieben:mal ne andere Frage... wie siehts mit alexa aus... dort werden die besuchten subdomains einer domain ja auch aufgelistet, und können so ggf. von einem bot entdeckt werden... vor allem, wenn die hauptdomain selber schon recht stark ist...
Klingt plausibler.
Am Schnellsten geht's mit dem Rausbekommen erfahrungsgemäß über die robots.txt, die wird immer vom Bot abgerufen, auch wenn er nur 1 Seite crawlt. URL-Console ist natürlich noch schneller, aber dann sind die Seiten definitiv für 6 Monate weg.
In der Zwischenzeit könntest als Workaround eine Passwordabfrage in die .htaccess reinhauen, damit niemand zufällig auf die Sub zugreifen kann.