Seite 1 von 1

robots.txt mit wildcard für googlebot

Verfasst: 04.03.2008, 19:54
von eanst
hallo forum,

möchte mit robots.txt ein paar unwichtige seiten für den bot sperren.

die seiten sind alle in der form:
- seite-1.html
- seite-2.html
- seite-4.html
usw.

ist die syntax dann so:
User-agent: Googlebot
Disallow: /seite-*.html

richtig?

vielen dank!

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 05.03.2008, 10:20
von Liverson
Hi,

ich habe mit Wildcard in der robots.txt erfolgreich die URL´s mit Sessionparametern ausgeschlossen.

z.B. /*?sid

das funktioniert prima.

Müsste also auch deine Variante funzen, wobei ich glaube, dass du .html hinten weglassen kannst nach der Wildcard, ausser du hast noch z.B. .php Datein, die genauso heissen.

gruss