Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Urls ausschließen via robot.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
PrometheusX
PostRank 4
PostRank 4
Beiträge: 101
Registriert: 02.04.2006, 17:03

Beitrag von PrometheusX » 16.04.2006, 16:16

Ist es eigentlich möglich eine ganze URL auszuschließen im selben Stil wie ein Verzeichnis ?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 16.04.2006, 16:27

Meinst Du jetzt eine konkrete Datei? Wenn ja, dann wäre folgende Lösung möglich:

Code: Alles auswählen

 User-agent: *
Disallow: /diesedateiwirdnichtindexiert.html
Wenn Du eine ganze Domain komplett ausschließen willst, dann wäre diese Lösung nach einer reifen Überlegung möglich einzusetzen:

Code: Alles auswählen

 User-agent: *
Disallow: /
Grüsse
Hasso

PrometheusX
PostRank 4
PostRank 4
Beiträge: 101
Registriert: 02.04.2006, 17:03

Beitrag von PrometheusX » 16.04.2006, 16:42

Meinte nur eine Datei, gracias.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag