Hab noch nicht viele Erfahrungen mti der robots gemacht, was auch diese Frage unterstreicht:
Aktuell ist eine zweite Domain in den SERPs, weil die htaccess noch nciht gegreift hat. Weiterleitungen sind jetzt drin. Da ich nciht solange warten möchte, bis Google und Co diese automatisch rausnehmen, möchte ich nachhelfen.
Kann ich per robots.txt auch eine ganze Domain zen Zugriff verbieten?
Funktioniert bspw. der Code:
Code: Alles auswählen
Disallow: http://www.domain.de