Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sessions vom Crawling aussperren

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
da_killerk
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 30.11.2007, 10:13
Wohnort: Bischweier

Beitrag von da_killerk » 05.05.2010, 10:40

Hallo,
ich möchte Sessions etc. vom Crawling durch die robots.txt aussperren.

Code: Alles auswählen

User-agent: googlebot
Disallow: /*.html$
Ich würde dies mit folgendem Eintrag machen?
www.seo-mountain.de | Interaktive Suchmaschinen Expedition

www.consulting-creation.de | Agentur für Print und Online