Hallo
ich habe schon vieles für Suchmaschinen ausgesperrt, nur es sind viele Seiten im Cache mit "?sessionid=" drin. Die sind schon alle per htaccess "umgeschrieben" auf html-s. Es dauert aber seit Monaten und die sessionid immer noch drin und die html-s sind nur teilweise indexiert. Wie kann ich das per robots ausschließen, oder irgendwie anders?
etwa so?
User-agent: *
Disallow: /?sessionid=
Liebe Grüße
Felix
Zuletzt geändert von Feliks am 17.08.2006, 13:21, insgesamt 1-mal geändert.
Dieses Thema wurde in den letzten Wochen mehrfach diskutiert mit einem schönen Link was man für Google in die robots.txt schreiben soll. Es ging da um das Thema PHP Session-Id mit robots.txt ausschließen. Die Lösung war dabei.