Session ID in Robots.txt spider aussperren
Verfasst: 08.05.2006, 08:55
Hallo!
Ich habe zwar die SuFu versucht zu bedienen bin allerdings bei 1600 Treffern igend wann ausgestiegen mit lesen und bis dahin noch nicht fündig geworden
Folgendes Problem:
Eine meiner Seiten arbeitet mit session ID´s nun habe ich gerade einmal die Startseite in den Index bekomme, aber das nun sogar schon 3 mal mit unterschiedlichen Session ID´s
Meine Robots.txt sieht wie folgt aus.
ist dort ein fehler drin oder wieso indexiert google meine SIDID´s ?
Danke für die Hilfe!
mfg
Ich habe zwar die SuFu versucht zu bedienen bin allerdings bei 1600 Treffern igend wann ausgestiegen mit lesen und bis dahin noch nicht fündig geworden

Folgendes Problem:
Eine meiner Seiten arbeitet mit session ID´s nun habe ich gerade einmal die Startseite in den Index bekomme, aber das nun sogar schon 3 mal mit unterschiedlichen Session ID´s

Meine Robots.txt sieht wie folgt aus.
Code: Alles auswählen
User-agent: *
...
Disallow: /*?SiDID=*
User-agent: Googlebot
...
Disallow: /*?SiDID=*
Danke für die Hilfe!
mfg