Seite 1 von 1

robots.txt mit wildcard für googlebot

Verfasst: 04.03.2008, 19:54
von eanst
hallo forum,

möchte mit robots.txt ein paar unwichtige seiten für den bot sperren.

die seiten sind alle in der form:
- seite-1.html
- seite-2.html
- seite-4.html
usw.

ist die syntax dann so:
User-agent: Googlebot
Disallow: /seite-*.html

richtig?

vielen dank!

Verfasst:
von

Verfasst: 05.03.2008, 10:20
von Liverson
Hi,

ich habe mit Wildcard in der robots.txt erfolgreich die URL´s mit Sessionparametern ausgeschlossen.

z.B. /*?sid

das funktioniert prima.

Müsste also auch deine Variante funzen, wobei ich glaube, dass du .html hinten weglassen kannst nach der Wildcard, ausser du hast noch z.B. .php Datein, die genauso heissen.

gruss