Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
dirsch
PostRank 3
PostRank 3
Beiträge: 78
Registriert: 09.03.2004, 14:36

Beitrag von dirsch » 19.04.2005, 12:01

Moinmoin

kann man eigentlich mit der robots.txt auch eine Gruppe von Dateien sperren, die z.B. mit dem gleichen Buchstaben beginnt.
Beispiel:
Existierende Datein wären abc.php, aab.php, bbb.php, ccc.php, ect.
Die Crawler sollen nur bbb.php und ccc.php spidern können.
Funktioniert dann dies hier?
User-agent: *
Disallow: /a*

Gruß
Dirsch