Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Unterverzeichnisse und robots.txt

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
marc77
PostRank 8
PostRank 8
Beiträge: 849
Registriert: 22.05.2007, 21:41

Beitrag von marc77 » 27.04.2010, 23:06

Hallo,

ich würde gerne mit der robots.txt alles was nach dem Verzeichnis

/en/

kommt ausschließen. Wenn ich aber

User-agent: *
Disallow: /en/

schreibe, wird ja /en/ auch ausgeschloßen..ich möchte aber, dass /en/ bleibt und nur alles was danach kommt aussgeschloßen wird. Es ist zuviel um es einzeln auszuschließen. Das Meta Tag noindex möchte ich nicht verwenden sondern die robots.txt verwenden..falls das geht?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 28.04.2010, 08:18

Hast du schon das hier versucht?

Code: Alles auswählen

User-agent: *
Disallow: /en/a
Disallow: /en/b
...
Disallow: /en/y
Disallow: /en/z
Disallow: /en/0
Disallow: /en/1
...
Disallow: /en/8
Disallow: /en/9
Keine Gewähr! Habe ich noch nie einsetzen müssen.
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

marc77
PostRank 8
PostRank 8
Beiträge: 849
Registriert: 22.05.2007, 21:41

Beitrag von marc77 » 28.04.2010, 09:03

Hallo Malte,

hab ich noch nicht...ich dachte es geht einfacher anstatt alle Buchstaben und Wörter. Geht vielleicht auch

/en/*

?

barracuda
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 28.04.2010, 11:34
Wohnort: South Africa, Kapstadt

Beitrag von barracuda » 29.04.2010, 20:17

Bei dem Codebeispiel von Malte hast Du das Problem, dass Du auch alle Dateien sperrst, die mit einem Buchstaben oder einer Zahl beginnen, was ja immer der Fall sein wird.

Ich denke, die einzige Variante ist:

Code: Alles auswählen

Disallow: en/*/
Dabei ist der abschließende Slash entscheidend.
So könntest Du ja auch auf einen Schlag die Nachfolge Struktur aussperren.

Code: Alles auswählen

Disallow: en/*/*/
Disallow: en/*/*/*/

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 29.04.2010, 21:48

marc77 hat geschrieben:
Malte hat geschrieben:Disallow: /en/a
Disallow: /en/b
...
Disallow: /en/y
Disallow: /en/z
ich dachte es geht einfacher anstatt alle Buchstaben und Wörter.
Du musst nicht alle Wörter ausschließen, da liegt doch gerade der Witz in seinem Vorschlag.

Die Angaben in der robots.txt werden nur so weit verglichen, wie sie lang sind; das bedeutet, dass die Angabe /a alles ausschließt, was mit /a beginnt: /a genauso wie /abraham, /albern, /affe, /aber/auch/dies usw.
Du hättest also im Grunde maximal 26 Buchstaben plus 10 Ziffern, macht 36 Disallow-Zeilen. Das lässt sich doch verschmerzen.

barracuda
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 28.04.2010, 11:34
Wohnort: South Africa, Kapstadt

Beitrag von barracuda » 29.04.2010, 21:53

Damit würdest Du aber auch alle Dateien die mit "a" anfangen ausschließen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag