Seite 1 von 1

robots.txt sessionid= für Robots sperren

Verfasst: 17.08.2006, 13:17
von Feliks
Hallo
ich habe schon vieles für Suchmaschinen ausgesperrt, nur es sind viele Seiten im Cache mit "?sessionid=" drin. Die sind schon alle per htaccess "umgeschrieben" auf html-s. Es dauert aber seit Monaten und die sessionid immer noch drin und die html-s sind nur teilweise indexiert. Wie kann ich das per robots ausschließen, oder irgendwie anders?

etwa so?
User-agent: *
Disallow: /?sessionid=

Liebe Grüße
Felix

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 17.08.2006, 13:20
von ole1210
Gar nicht. Stell lieber die Session-IDs ab!

Verfasst: 17.08.2006, 13:22
von Feliks
ole1210 hat geschrieben:Gar nicht. Stell lieber die Session-IDs ab!
Wie denn?
hast Du einen Hinweis für mich?
Feliks

Verfasst: 17.08.2006, 15:52
von KOHLFUERST
Dieses Thema wurde in den letzten Wochen mehrfach diskutiert mit einem schönen Link was man für Google in die robots.txt schreiben soll. Es ging da um das Thema PHP Session-Id mit robots.txt ausschließen. Die Lösung war dabei.