Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt sessionid= für Robots sperren

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Feliks
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 30.07.2006, 01:12

Beitrag von Feliks » 17.08.2006, 13:17

Hallo
ich habe schon vieles für Suchmaschinen ausgesperrt, nur es sind viele Seiten im Cache mit "?sessionid=" drin. Die sind schon alle per htaccess "umgeschrieben" auf html-s. Es dauert aber seit Monaten und die sessionid immer noch drin und die html-s sind nur teilweise indexiert. Wie kann ich das per robots ausschließen, oder irgendwie anders?

etwa so?
User-agent: *
Disallow: /?sessionid=

Liebe Grüße
Felix
Zuletzt geändert von Feliks am 17.08.2006, 13:21, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 17.08.2006, 13:20

Gar nicht. Stell lieber die Session-IDs ab!

Feliks
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 30.07.2006, 01:12

Beitrag von Feliks » 17.08.2006, 13:22

ole1210 hat geschrieben:Gar nicht. Stell lieber die Session-IDs ab!
Wie denn?
hast Du einen Hinweis für mich?
Feliks

KOHLFUERST
PostRank 5
PostRank 5
Beiträge: 212
Registriert: 02.05.2006, 07:23
Wohnort: Salzburg

Beitrag von KOHLFUERST » 17.08.2006, 15:52

Dieses Thema wurde in den letzten Wochen mehrfach diskutiert mit einem schönen Link was man für Google in die robots.txt schreiben soll. Es ging da um das Thema PHP Session-Id mit robots.txt ausschließen. Die Lösung war dabei.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag