Seite 1 von 1

richtige verwendung von robots.txt

Verfasst: 22.12.2008, 09:55
von laura_ch
hallo liebe abakus user,

gerne erlaube ich mir ein frage zur richtigen verwendung von robots.txt

ich habe auf einem webspace mehrere projekte laufen - die robots.txt ist das gleiche file für alle projekte.

nun möchte ich ein projekt davon mit topdomain und ein projekt welches auf einer subdomain läuft komplett sperren lassen. bei der subdomain soll das hauptprojekt auf der hauptdomain nach wie vor gelesen etc. werden.

habe ich eine chance für jedes projekt ein eigenes robots.txt zu erstellen?

oder wäre eine solche verwendund korrekt:

User-agent: *
Disallow: /projekt1subdomain/ (ordner mit den files der subdomain)
Disallow: /projekt2/ (ordner mit files von hauptdomain die gesperrt werden müssten)

danke für eure hilfe und liebe grüsse
laura

Verfasst:
von

Verfasst: 22.12.2008, 11:51
von harakiri
leg für jede Domain ne eigene robots.txt an, dann passts!

Verfasst: 22.12.2008, 13:33
von laura_ch
Hoi Harakiri,

Danke - und wie mache ich das? :-) Danke!

Verfasst: 22.12.2008, 13:37
von harakiri
Du schreibst deine robtots.txt wie du oben beschrieben hast, jedoch als Pfad nimmst Du die Ordner innerhalb der Domain.

Dann speicherst Du diese unter www.domain.de/robots.txt


Fertig!

Verfasst: 22.12.2008, 14:55
von laura_ch
vielen dank! dabei spielt es keine rolle auf welchen top-level domains die jeweiligen seiten ind den unterordnern laufen?

Verfasst: 22.12.2008, 21:59
von Mork vom Ork
laura_ch hat geschrieben:dabei spielt es keine rolle auf welchen top-level domains die jeweiligen seiten ind den unterordnern laufen?
Robots rufen die robots.txt unter example.com/robots.txt ab. Wo der Server diese Datei herholt, ist seine Sache, es interessiert die Robots nicht und sie bekommen es auch nicht mit. Du musst die Sache also von außen sehen, nicht von innen.

Wenn:

https://domain1.example.com/ -> /projekt1subdomain/
https://domain2.example.com/ -> /projekt2/

dann gilt:

https://domain1.example.com/robots.txt -> /projekt1subdomain/robots.txt
https://domain2.example.com/robots.txt -> /projekt2/robots.txt

Verfasst: 23.12.2008, 08:56
von laura_ch
vielen dank! grüsse

Verfasst: 14.01.2009, 16:55
von altraz
huhu!
Dazu hab ich auch eine Frage... Wenn ich jetzt ein Projekt auf dem Server habe, und mit 2 anderen Domains auf genau dieses Projekt "permanent redirecte".... was ist dann mit der robots.txt?

Verfasst: 15.01.2009, 11:05
von chrizz
da du 2 Domains umleitetest, ist die robots nur von deiner 3. Domai aus zu erreichen. Da reicht also eine robots.txt

Verfasst: 15.01.2009, 21:25
von Mork vom Ork
altraz hat geschrieben:Wenn ich jetzt ein Projekt auf dem Server habe, und mit 2 anderen Domains auf genau dieses Projekt "permanent redirecte".... was ist dann mit der robots.txt?
Das kommt darauf an, was du weiterleitest.

Wenn du von Domain 2 pauschal nach Domain 1 weiterleitest, wird auch bei Abruf von domain2/robots.txt nach domain1/robots.txt umgeleitet. Wie Bots damit umgehen, weiß ich nicht, es gäbe zwei Möglichkeiten:
1. Der Bot nimmt die Inhalte von domain1/robots.txt und bezieht sie auf die Pfade unter Domain 2. Hast du unterschiedliche Pfade unter Domain 1 und Domain 2, wäre so eine Weiterleitung sehr unschlau.
2. Der Bot ignoriert die Weiterleitung und benimmt sich, als wenn für Domain 2 keine robots.txt existieren würde.

Wenn du hingegen die robots.txt von der Weiterleitung ausnimmst, kannst du für Domain 1 und Domain 2 eigene robots.txt anlegen, die unabhängig voneinander, jede für ihre jeweilige Domain agieren.