robots.txt mit wildcard für googlebot
Verfasst: 04.03.2008, 19:54
hallo forum,
möchte mit robots.txt ein paar unwichtige seiten für den bot sperren.
die seiten sind alle in der form:
- seite-1.html
- seite-2.html
- seite-4.html
usw.
ist die syntax dann so:
User-agent: Googlebot
Disallow: /seite-*.html
richtig?
vielen dank!
möchte mit robots.txt ein paar unwichtige seiten für den bot sperren.
die seiten sind alle in der form:
- seite-1.html
- seite-2.html
- seite-4.html
usw.
ist die syntax dann so:
User-agent: Googlebot
Disallow: /seite-*.html
richtig?
vielen dank!