Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt sessionid= für Robots sperren

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Feliks
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 30.07.2006, 01:12

Beitrag von Feliks » 17.08.2006, 13:17

Hallo
ich habe schon vieles für Suchmaschinen ausgesperrt, nur es sind viele Seiten im Cache mit "?sessionid=" drin. Die sind schon alle per htaccess "umgeschrieben" auf html-s. Es dauert aber seit Monaten und die sessionid immer noch drin und die html-s sind nur teilweise indexiert. Wie kann ich das per robots ausschließen, oder irgendwie anders?

etwa so?
User-agent: *
Disallow: /?sessionid=

Liebe Grüße
Felix
Zuletzt geändert von Feliks am 17.08.2006, 13:21, insgesamt 1-mal geändert.