Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

doppel content durch robots.txt sperren

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
dado
PostRank 4
PostRank 4
Beiträge: 103
Registriert: 02.06.2009, 17:36

Beitrag von dado » 07.08.2010, 07:50

Hallo, kann mir eine sagen wie ich diese seiten in robots.txt sperren kann.


22-domain-xxxx-dein/22-live-xxxx-testen.html?start=855
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=820
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=826
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=820
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=900
22-domain-xxxx-dein/22-live-xxxx-testen.html?start=456
und so weiter, insgesammt 500 mal.

ich möchte ungern alles einzeln bei robots aussperren :-)

wie sollte ich vorgehen ?

danke im voraus für jede hilfe.