Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sessions vom Crawling aussperren

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
da_killerk
PostRank 4
PostRank 4
Beiträge: 100
Registriert: 30.11.2007, 10:13
Wohnort: Bischweier

Beitrag von da_killerk » 05.05.2010, 10:40

Hallo,
ich möchte Sessions etc. vom Crawling durch die robots.txt aussperren.

Code: Alles auswählen

User-agent: googlebot
Disallow: /*.html$
Ich würde dies mit folgendem Eintrag machen?
www.seo-mountain.de | Interaktive Suchmaschinen Expedition

www.consulting-creation.de | Agentur für Print und Online

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 05.05.2010, 11:10

Wow, die robots.txt-Syntax ist echt ekelig. Mischung aus DOS-Wildcards und Regex... quasi das Übelste aus beiden Welten. :)

Außerdem verschenkt man damit Linkjuice. Mein Favorit wäre, alle Sessions mit "noindex,follow" und sessionfreiem Canonical-Tag auszuliefern.

Dein Eintrag sieht syntaktisch richtig aus. Er weist Googlebot an, alle HTML-Dateien des Webspace auszuschließen.

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 05.05.2010, 16:04

die eleganteste lösung ist, wenn die eignesetzte software sessionsnur bei angemeldeten usern benutzt.
dann kann man das canonical tag verwenden und/oder in den webmastertools parameter ausschließen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 05.05.2010, 16:18

Die sinnigste Lösung ist, mit dem Sessionkram gar nicht erst die URL vollzumüllen, denn er hat da nichts zu suchen und wird da auch nicht benötigt – Cookies gibt es seit bald 15 Jahren und so langsam wäre es Zeit, sie serverseitig auch einfach mal zu nutzen.
Der Besucher wiederum, der Cookies gänzlich verweigert, weiß, was er tut, und kann die Funktion bei Bedarf schnell aktivieren.

Kurzum: Für Session-URLs gibt es keinen Grund.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 05.05.2010, 17:43

FULL ACK @Mork ...man könnte sagen: wie immer.

SphaeroX
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 18.05.2010, 10:47

Beitrag von SphaeroX » 18.05.2010, 10:49

Ich würde es mit PHP regeln, wenn der USER-AGENT ein Crawler/Spider/Robot ist, dann gebe keine SessionID in Links aus. Oder habe ich da jetzt einen fehlgedanken?

evel
PostRank 3
PostRank 3
Beiträge: 67
Registriert: 11.11.2009, 12:18

Beitrag von evel » 25.05.2010, 16:14

Hallo,

habe das Problem, dass Ggle unsere Cookies irgendwie mit indexiert hat.
so wird nun in den Suchergebnissen
.de/?PHPSESSID=28964a5084ceb7b31f00b65756b9fd93
oder
.de/home_en.html?PHPSESSID=28964a5084ceb7b31f00b65756b9fd93
angezeigt.

Hat jemand eine Idde wieso es zur Indexierung der Cookies gekommen ist?

Cookie:
Name: PHPSESSID
Inhalt: 28964a5084ceb7b31f00b65756b9fd93
Senden für: Jeden Verbindungstyp
Gültig bis: am Ende der Sitzung

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag