Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

richtige verwendung von robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
laura_ch
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 22.12.2008, 09:49

Beitrag von laura_ch » 22.12.2008, 09:55

hallo liebe abakus user,

gerne erlaube ich mir ein frage zur richtigen verwendung von robots.txt

ich habe auf einem webspace mehrere projekte laufen - die robots.txt ist das gleiche file für alle projekte.

nun möchte ich ein projekt davon mit topdomain und ein projekt welches auf einer subdomain läuft komplett sperren lassen. bei der subdomain soll das hauptprojekt auf der hauptdomain nach wie vor gelesen etc. werden.

habe ich eine chance für jedes projekt ein eigenes robots.txt zu erstellen?

oder wäre eine solche verwendund korrekt:

User-agent: *
Disallow: /projekt1subdomain/ (ordner mit den files der subdomain)
Disallow: /projekt2/ (ordner mit files von hauptdomain die gesperrt werden müssten)

danke für eure hilfe und liebe grüsse
laura

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


harakiri
PostRank 5
PostRank 5
Beiträge: 232
Registriert: 19.08.2005, 16:36

Beitrag von harakiri » 22.12.2008, 11:51

leg für jede Domain ne eigene robots.txt an, dann passts!

laura_ch
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 22.12.2008, 09:49

Beitrag von laura_ch » 22.12.2008, 13:33

Hoi Harakiri,

Danke - und wie mache ich das? :-) Danke!

harakiri
PostRank 5
PostRank 5
Beiträge: 232
Registriert: 19.08.2005, 16:36

Beitrag von harakiri » 22.12.2008, 13:37

Du schreibst deine robtots.txt wie du oben beschrieben hast, jedoch als Pfad nimmst Du die Ordner innerhalb der Domain.

Dann speicherst Du diese unter www.domain.de/robots.txt


Fertig!

laura_ch
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 22.12.2008, 09:49

Beitrag von laura_ch » 22.12.2008, 14:55

vielen dank! dabei spielt es keine rolle auf welchen top-level domains die jeweiligen seiten ind den unterordnern laufen?

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 22.12.2008, 21:59

laura_ch hat geschrieben:dabei spielt es keine rolle auf welchen top-level domains die jeweiligen seiten ind den unterordnern laufen?
Robots rufen die robots.txt unter example.com/robots.txt ab. Wo der Server diese Datei herholt, ist seine Sache, es interessiert die Robots nicht und sie bekommen es auch nicht mit. Du musst die Sache also von außen sehen, nicht von innen.

Wenn:

https://domain1.example.com/ -> /projekt1subdomain/
https://domain2.example.com/ -> /projekt2/

dann gilt:

https://domain1.example.com/robots.txt -> /projekt1subdomain/robots.txt
https://domain2.example.com/robots.txt -> /projekt2/robots.txt

laura_ch
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 22.12.2008, 09:49

Beitrag von laura_ch » 23.12.2008, 08:56

vielen dank! grüsse

altraz
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 30.11.2006, 11:53

Beitrag von altraz » 14.01.2009, 16:55

huhu!
Dazu hab ich auch eine Frage... Wenn ich jetzt ein Projekt auf dem Server habe, und mit 2 anderen Domains auf genau dieses Projekt "permanent redirecte".... was ist dann mit der robots.txt?

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 15.01.2009, 11:05

da du 2 Domains umleitetest, ist die robots nur von deiner 3. Domai aus zu erreichen. Da reicht also eine robots.txt

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 15.01.2009, 21:25

altraz hat geschrieben:Wenn ich jetzt ein Projekt auf dem Server habe, und mit 2 anderen Domains auf genau dieses Projekt "permanent redirecte".... was ist dann mit der robots.txt?
Das kommt darauf an, was du weiterleitest.

Wenn du von Domain 2 pauschal nach Domain 1 weiterleitest, wird auch bei Abruf von domain2/robots.txt nach domain1/robots.txt umgeleitet. Wie Bots damit umgehen, weiß ich nicht, es gäbe zwei Möglichkeiten:
1. Der Bot nimmt die Inhalte von domain1/robots.txt und bezieht sie auf die Pfade unter Domain 2. Hast du unterschiedliche Pfade unter Domain 1 und Domain 2, wäre so eine Weiterleitung sehr unschlau.
2. Der Bot ignoriert die Weiterleitung und benimmt sich, als wenn für Domain 2 keine robots.txt existieren würde.

Wenn du hingegen die robots.txt von der Weiterleitung ausnimmst, kannst du für Domain 1 und Domain 2 eigene robots.txt anlegen, die unabhängig voneinander, jede für ihre jeweilige Domain agieren.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag