Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sessions vom Crawling aussperren

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
da_killerk
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 30.11.2007, 10:13
Wohnort: Bischweier

Beitrag von da_killerk » 05.05.2010, 10:40

Hallo,
ich möchte Sessions etc. vom Crawling durch die robots.txt aussperren.

Code: Alles auswählen

User-agent: googlebot
Disallow: /*.html$
Ich würde dies mit folgendem Eintrag machen?
www.seo-mountain.de | Interaktive Suchmaschinen Expedition

www.consulting-creation.de | Agentur für Print und Online

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 05.05.2010, 11:10

Wow, die robots.txt-Syntax ist echt ekelig. Mischung aus DOS-Wildcards und Regex... quasi das Übelste aus beiden Welten. :)

Außerdem verschenkt man damit Linkjuice. Mein Favorit wäre, alle Sessions mit "noindex,follow" und sessionfreiem Canonical-Tag auszuliefern.

Dein Eintrag sieht syntaktisch richtig aus. Er weist Googlebot an, alle HTML-Dateien des Webspace auszuschließen.

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 05.05.2010, 16:04

die eleganteste lösung ist, wenn die eignesetzte software sessionsnur bei angemeldeten usern benutzt.
dann kann man das canonical tag verwenden und/oder in den webmastertools parameter ausschließen.