Seite 1 von 1

doppel content durch robots.txt sperren

Verfasst: 07.08.2010, 07:50
von dado
Hallo, kann mir eine sagen wie ich diese seiten in robots.txt sperren kann.


22-domain-xxxx-dein/22-live-xxxx-testen.html?start=855
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=820
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=826
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=820
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=900
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=456
und so weiter, insgesammt 500 mal.

ich möchte ungern alles einzeln bei robots aussperren :-)

wie sollte ich vorgehen ?

danke im voraus für jede hilfe.

Verfasst:
von

Verfasst: 07.08.2010, 09:33
von undertaker
Disallow: *start=