Seite 1 von 1

Urls ausschließen via robot.txt

Verfasst: 16.04.2006, 16:16
von PrometheusX
Ist es eigentlich möglich eine ganze URL auszuschließen im selben Stil wie ein Verzeichnis ?

Verfasst:
von

Re: Urls ausschließen via robot.txt

Verfasst: 16.04.2006, 16:27
von Hasso
Meinst Du jetzt eine konkrete Datei? Wenn ja, dann wäre folgende Lösung möglich:

Code: Alles auswählen

 User-agent: *
Disallow: /diesedateiwirdnichtindexiert.html
Wenn Du eine ganze Domain komplett ausschließen willst, dann wäre diese Lösung nach einer reifen Überlegung möglich einzusetzen:

Code: Alles auswählen

 User-agent: *
Disallow: /
Grüsse
Hasso

Urls ausschließen via robot.txt

Verfasst: 16.04.2006, 16:42
von PrometheusX
Meinte nur eine Datei, gracias.