robots.txt sessionid= für Robots sperren
Verfasst: 17.08.2006, 13:17
Hallo
ich habe schon vieles für Suchmaschinen ausgesperrt, nur es sind viele Seiten im Cache mit "?sessionid=" drin. Die sind schon alle per htaccess "umgeschrieben" auf html-s. Es dauert aber seit Monaten und die sessionid immer noch drin und die html-s sind nur teilweise indexiert. Wie kann ich das per robots ausschließen, oder irgendwie anders?
etwa so?
User-agent: *
Disallow: /?sessionid=
Liebe Grüße
Felix
ich habe schon vieles für Suchmaschinen ausgesperrt, nur es sind viele Seiten im Cache mit "?sessionid=" drin. Die sind schon alle per htaccess "umgeschrieben" auf html-s. Es dauert aber seit Monaten und die sessionid immer noch drin und die html-s sind nur teilweise indexiert. Wie kann ich das per robots ausschließen, oder irgendwie anders?
etwa so?
User-agent: *
Disallow: /?sessionid=
Liebe Grüße
Felix