Seite 1 von 1

Session IDs und Cookies

Verfasst: 27.07.2009, 11:20
von sascha78
Hallo,

ich habe eine Frage bzgl. eines Webshops:
Für die Funktion des Shops ist es unerlässlich, dass die Session Verwaltung funktioniert.

Primär läuft diese mit Cookies.
Hat der User Cookies deaktiviert, so wird die Session ID an die Links angehangen.
Dies führt leider dazu, dass Google jede Seite zich mal im Index hat - nämlich immer mit ner anderen Session ID am Link dran.

Wie verfährt man hier aus SEO Sicht und aus User Sicht?

a) User "aussperren", die keine Cookies akzeptieren?
(Ich bin jemand der sagt, dass er im Regelfall auf User verzichten kann, die nicht in der Lage sind einen maximal 1 Jahr alten Internet Browser zu verwenden oder solche Paranoia haben, dass sie aktuelle Technologien nicht verwenden möchten.)

b) Den Google Bot "erkennen" und nur für diesen die Link Session Verwaltung deaktivieren?
(Die Frage ist: a) Ist das technisch möglich - und b) führt dies nicht zu massiven Nachteilen?)

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Re: Session IDs und Cookies

Verfasst: 27.07.2009, 11:46
von Mork vom Ork
sascha78 hat geschrieben:a) User "aussperren", die keine Cookies akzeptieren?
(Ich bin jemand der sagt, dass er im Regelfall auf User verzichten kann, die […] solche Paranoia haben, dass sie aktuelle Technologien nicht verwenden möchten.)
Ich würde es eher so formulieren:

1. Wer Cookies abschaltet, weiß auch, wie er sie wieder einschaltet.
2. Ich sogar bin der Meinung, dass niemand, der nicht genau weiß, was er tut, Cookies gänzlich deaktiviert.

Unter diesen Gesichtspunkten würde ich mir um die Problematik keine Sorgen machen, denn wer bei dir bestellen will, der wird kein Hindernis darin sehen, dass du, wie eigentlich jeder Versandhändler, Cookies für den Warenkorb benutzt - er wird sie einfach vorübergehend annehmen.
b) Den GoogleBot "erkennen" und nur für diesen die Link-Session-Verwaltung deaktivieren?
(Die Frage ist: a) Ist das technisch möglich - und b) führt dies nicht zu massiven Nachteilen?)
Technisch möglich ja, ob's massive Nachteile bringt, kommt darauf an, mir wäre angesichts a) alleine der Aufwand schon zu hoch.

Du könntest ja erstmal den Weg über die URL-Parameter deaktivieren und die betreffende Hinweisseite, die erscheint (erscheinen muss), wenn keine Cookies angenommen werden, beobachten. Dann weisst du ganz genau, wie sich deine Besucher verhalten, ob viele Cookies ablehnen (führst du ein Zugriffsprotokoll, müsstest du bereits jetzt auswerten können), ob diese Gruppe trotzdem weiter einkauft und vielleicht sogar, wieviel Umsatz dir bei den faulen Totalverweigerern durch die Lappen geht.

Re: Session IDs und Cookies

Verfasst: 27.07.2009, 12:22
von proit
sascha78 hat geschrieben: b) Den Google Bot "erkennen" und nur für diesen die Link Session Verwaltung deaktivieren?
(Die Frage ist: a) Ist das technisch möglich - und b) führt dies nicht zu massiven Nachteilen?)
Ganz klar b. Technisch nicht schwer. UserAgent gegen eine Liste prüfen. Schau dir die gängisten Shopsysteme und deren Erweiterungen an. Und dann auch gleich die Bots von anderen Suchmaschinen berücksichtigen.

Du kannst in der robots.txt auch Urls mit einer sid aussperren.

Verfasst:
von

Verfasst: 27.07.2009, 12:57
von collection23
Ein anständiger Shop kann das. Im xt:c nennt sich diese Funktion z.B. "Spider Sessions vermeiden".

Verfasst: 27.07.2009, 13:14
von sascha78
collection23 hat geschrieben:Ein anständiger Shop kann das. Im xt:c nennt sich diese Funktion z.B. "Spider Sessions vermeiden".
Der DAU kann nur diese Funktion anhaken / deaktivieren.

Ich möchte aber gerne wissen welche Technische Implementierung dahinter steckt, um es an meine Bedürfnisse anzupassen.

Verfasst: 27.07.2009, 13:20
von ole1210
Schau dir den Code an, dann weisst du wie es umgesetzt wird. Wie gesagt, es gibt verschiedene Möglichkeiten das zu realisieren.

Verfasst: 27.07.2009, 13:38
von sascha78
Na gut. Dann bleibe ich jetzt bei meiner Lösung und hoffe, dass die keinerlei Nachteile mit sich bringt.

Re: Session IDs und Cookies

Verfasst: 27.07.2009, 13:56
von shoppi
proit hat geschrieben:
Du kannst in der robots.txt auch Urls mit einer sid aussperren.
Das habe ich bei meinem shop gemacht.

Soweit ich das sehe (sorry bin auch totaler technischer Laie) passiert dann folgendes:

1. googlebot kommt und guckt sich um
2. sobald er eine andere URL aufrufen will, als die, die er schon kennt, kriegt er ne session ID
3. somit ist für ihn quasi alles verboten (bei meinem shop zeigt es mir >35000 per robots.txt gesperrte urls an vs. nur ca. 3500 urls in der sitemap...)
4.gooblebot sagt sich: "Hier ist ja fast alles verboten! Wenn ich hier nicht darf, wie ich will, dann will ich auch nicht wie ich soll... "

Bei mir war das Ergebnis, dass erstens ohne sitemap keine neuen Seiten "von selber" gefunden werden und zweitens die crawling Aktivität insgesamt auf etwa 10% von vor der Umstellung auf SID zusammengeschrumpft ist...

Die Variante, dass der Shop die urls für den googlebot ohne SID ausgibt finde ich sehr sympathisch...

Verfasst: 27.07.2009, 14:46
von proit
sascha78 hat geschrieben:
collection23 hat geschrieben:Ein anständiger Shop kann das. Im xt:c nennt sich diese Funktion z.B. "Spider Sessions vermeiden".
Der DAU kann nur diese Funktion anhaken / deaktivieren.

Ich möchte aber gerne wissen welche Technische Implementierung dahinter steckt, um es an meine Bedürfnisse anzupassen.
Hatte ich oben schon geschrieben. Ist ja keine Zauberrei.

Verfasst: 27.07.2009, 16:03
von sascha78
Ich habe jetzt:

1. Session ID URLs per robots.txt ausgesperrt
2. Session ID URLs deaktiviert, wenn sich ein Bot zu erkennen gibt
3. Den canonical Tag, der kein Tag ist, gesetzt, wenn eine SID angehängt ist.

Zu sehen hier:
Schaut euch einmal den Quelltext von der Seite
https://www.carmodule.de/produkt_P15977 ... ensor.html

und von der Seite an:
https://www.carmodule.de/produkt_P15977 ... _ID=abcdef

(auf den link Tag achten)

Re: Session IDs und Cookies

Verfasst: 27.07.2009, 16:03
von Mork vom Ork
shoppi hat geschrieben:
proit hat geschrieben:Du kannst in der robots.txt auch Urls mit einer sid aussperren.
bei meinem shop zeigt es mir >35000 per robots.txt gesperrte urls an
Und es werden von Besuch zu Besuch mehr …

Re: Session IDs und Cookies

Verfasst: 27.07.2009, 18:22
von net(t)worker
proit hat geschrieben:Ganz klar b. Technisch nicht schwer. UserAgent gegen eine Liste prüfen. Schau dir die gängisten Shopsysteme und deren Erweiterungen an. Und dann auch gleich die Bots von anderen Suchmaschinen berücksichtigen.
führt aber bei Google nicht zum Erfolg, da der Bot auch schon mal mit "normaler Browser" Userkennung vorbeikommt...

Re: Session IDs und Cookies

Verfasst: 28.07.2009, 09:44
von proit
net(t)worker hat geschrieben:
proit hat geschrieben:Ganz klar b. Technisch nicht schwer. UserAgent gegen eine Liste prüfen. Schau dir die gängisten Shopsysteme und deren Erweiterungen an. Und dann auch gleich die Bots von anderen Suchmaschinen berücksichtigen.
führt aber bei Google nicht zum Erfolg, da der Bot auch schon mal mit "normaler Browser" Userkennung vorbeikommt...
Daher die zusätzliche variante mit robots.txt. Allerdings, scheinen die Google Bots mit anderer Browserkennung nicht für die Indizierung zuständig zu sein, da die "Durch robots.txt gesperrt" Webseiten bei mir der tatsächlichen Seitenanzahl entsprechen, und noch nie Webseiten mit SID in den Index aufgenommen wurden.