Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Ich würde es eher so formulieren:sascha78 hat geschrieben:a) User "aussperren", die keine Cookies akzeptieren?
(Ich bin jemand der sagt, dass er im Regelfall auf User verzichten kann, die […] solche Paranoia haben, dass sie aktuelle Technologien nicht verwenden möchten.)
Technisch möglich ja, ob's massive Nachteile bringt, kommt darauf an, mir wäre angesichts a) alleine der Aufwand schon zu hoch.b) Den GoogleBot "erkennen" und nur für diesen die Link-Session-Verwaltung deaktivieren?
(Die Frage ist: a) Ist das technisch möglich - und b) führt dies nicht zu massiven Nachteilen?)
Ganz klar b. Technisch nicht schwer. UserAgent gegen eine Liste prüfen. Schau dir die gängisten Shopsysteme und deren Erweiterungen an. Und dann auch gleich die Bots von anderen Suchmaschinen berücksichtigen.sascha78 hat geschrieben: b) Den Google Bot "erkennen" und nur für diesen die Link Session Verwaltung deaktivieren?
(Die Frage ist: a) Ist das technisch möglich - und b) führt dies nicht zu massiven Nachteilen?)
Der DAU kann nur diese Funktion anhaken / deaktivieren.collection23 hat geschrieben:Ein anständiger Shop kann das. Im xt:c nennt sich diese Funktion z.B. "Spider Sessions vermeiden".
Das habe ich bei meinem shop gemacht.proit hat geschrieben:
Du kannst in der robots.txt auch Urls mit einer sid aussperren.
Hatte ich oben schon geschrieben. Ist ja keine Zauberrei.sascha78 hat geschrieben:Der DAU kann nur diese Funktion anhaken / deaktivieren.collection23 hat geschrieben:Ein anständiger Shop kann das. Im xt:c nennt sich diese Funktion z.B. "Spider Sessions vermeiden".
Ich möchte aber gerne wissen welche Technische Implementierung dahinter steckt, um es an meine Bedürfnisse anzupassen.
Und es werden von Besuch zu Besuch mehr …shoppi hat geschrieben:bei meinem shop zeigt es mir >35000 per robots.txt gesperrte urls anproit hat geschrieben:Du kannst in der robots.txt auch Urls mit einer sid aussperren.
führt aber bei Google nicht zum Erfolg, da der Bot auch schon mal mit "normaler Browser" Userkennung vorbeikommt...proit hat geschrieben:Ganz klar b. Technisch nicht schwer. UserAgent gegen eine Liste prüfen. Schau dir die gängisten Shopsysteme und deren Erweiterungen an. Und dann auch gleich die Bots von anderen Suchmaschinen berücksichtigen.
Daher die zusätzliche variante mit robots.txt. Allerdings, scheinen die Google Bots mit anderer Browserkennung nicht für die Indizierung zuständig zu sein, da die "Durch robots.txt gesperrt" Webseiten bei mir der tatsächlichen Seitenanzahl entsprechen, und noch nie Webseiten mit SID in den Index aufgenommen wurden.net(t)worker hat geschrieben:führt aber bei Google nicht zum Erfolg, da der Bot auch schon mal mit "normaler Browser" Userkennung vorbeikommt...proit hat geschrieben:Ganz klar b. Technisch nicht schwer. UserAgent gegen eine Liste prüfen. Schau dir die gängisten Shopsysteme und deren Erweiterungen an. Und dann auch gleich die Bots von anderen Suchmaschinen berücksichtigen.