Seite 1 von 1
Sessions vom Crawling aussperren
Verfasst: 05.05.2010, 10:40
von da_killerk
Hallo,
ich möchte Sessions etc. vom Crawling durch die robots.txt aussperren.
Ich würde dies mit folgendem Eintrag machen?
Verfasst: 05.05.2010, 11:10
von SloMo
Wow, die robots.txt-Syntax ist echt ekelig. Mischung aus DOS-Wildcards und Regex... quasi das Übelste aus beiden Welten.
Außerdem verschenkt man damit Linkjuice. Mein Favorit wäre, alle Sessions mit "noindex,follow" und sessionfreiem Canonical-Tag auszuliefern.
Dein Eintrag sieht syntaktisch richtig aus. Er weist Googlebot an, alle HTML-Dateien des Webspace auszuschließen.
Verfasst: 05.05.2010, 16:04
von Nullpointer
die eleganteste lösung ist, wenn die eignesetzte software sessionsnur bei angemeldeten usern benutzt.
dann kann man das canonical tag verwenden und/oder in den webmastertools parameter ausschließen.