Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

richtige verwendung von robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
laura_ch
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 22.12.2008, 09:49

Beitrag von laura_ch » 22.12.2008, 09:55

hallo liebe abakus user,

gerne erlaube ich mir ein frage zur richtigen verwendung von robots.txt

ich habe auf einem webspace mehrere projekte laufen - die robots.txt ist das gleiche file für alle projekte.

nun möchte ich ein projekt davon mit topdomain und ein projekt welches auf einer subdomain läuft komplett sperren lassen. bei der subdomain soll das hauptprojekt auf der hauptdomain nach wie vor gelesen etc. werden.

habe ich eine chance für jedes projekt ein eigenes robots.txt zu erstellen?

oder wäre eine solche verwendund korrekt:

User-agent: *
Disallow: /projekt1subdomain/ (ordner mit den files der subdomain)
Disallow: /projekt2/ (ordner mit files von hauptdomain die gesperrt werden müssten)

danke für eure hilfe und liebe grüsse
laura