Seite 1 von 1

doppel content durch robots.txt sperren

Verfasst: 07.08.2010, 07:50
von dado
Hallo, kann mir eine sagen wie ich diese seiten in robots.txt sperren kann.


22-domain-xxxx-dein/22-live-xxxx-testen.html?start=855
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=820
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=826
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=820
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=900
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=456
und so weiter, insgesammt 500 mal.

ich möchte ungern alles einzeln bei robots aussperren :-)

wie sollte ich vorgehen ?

danke im voraus für jede hilfe.

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 07.08.2010, 09:33
von undertaker
Disallow: *start=