Seite 1 von 1

Tausende Produktseiten mit Session-IDs im Google Index

Verfasst: 30.05.2011, 13:58
von kitaro
Hallo zusammen,

Google hat aus unserem Shop zig tausende Unterseiten indexiert, die Session-IDs enthalten. Wir benutzten im Quellcode bereits das rel canonical Attribut und haben unrelevante Seiten per Meta-Tag auf noindex,follow gesetzt.

Auf ein Disallow /*XTCsid in der robots.txt haben wir bisher bewusst verzichtet, da Google dies mittlerwiele nicht mehr empfiehlt:
Siehe: https://googlewebmastercentral-de.blogs ... ehren.html
Wir empfehlen mittlerweile, den Zugriff auf Duplicate Content auf eurer Site nicht zu blockieren - egal ob mittels robots.txt oder anderer Methoden. Verwendet stattdessen das rel="canonical" Link-Element, unser Tool zur Parameterbehandlung oder 301-Weiterleitungen.
Auch in den Webmaster Tools haben wir in der Parameterbehandlung XTCsid bereits eingetragen. Nach Absprache mit den Programmierern ist ein 301 redirect auf die URL ohne Session-ID scheinbar technisch nicht möglich.

Was können wir tun? Welche Auswirkungen haben die Unterseiten mit Session-IDs im Index?

Verfasst:
von

Verfasst: 30.05.2011, 14:03
von net(t)worker
wie lange existiert das canonical schon?

Verfasst: 30.05.2011, 14:17
von kitaro
net(t)worker hat geschrieben:wie lange existiert das canonical schon?
Einige Monate auf jeden Fall. Früher haben wir per robots.txt mit disallow den Zugriff auf die Seiten mit XTCsid blockiert. Dieser "Strategiewechsel" hat nun dazu geführt:

Anzahl der URLs mit Session-IDs im Google Index:

Bild

Kann das negative Auswirkungen auf das Ranking haben?

Laut diesem Post hier (allerdings von Ende 2009) wohl nicht:
Grundsaetzlich wuerde ich vom Gebrauch der robots.txt-Datei zum Abfangen von Session-IDs in der URL abraten. Das Problem ist, dass wir diese URLs gar nicht anschauen koennen, und somit auch gar nicht erkennen koennen, dass es Duplikate sind (da hilft ein rel=canonical auch nicht weiter, wenn man die Seite gar nicht anschauen kann :-)). Ich wuerde also:
- die Session-IDs moeglichst aus den URLs entfernen,
- per URL parameter Tool innerhalb von Webmaster Tools die entsprechenden Parameter ignorieren lassen
- per rel=canonical nachdoppeln :)
Quelle: https://www.google.com/support/forum/p/ ... 6744&hl=de

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 02.06.2011, 19:34
von kitaro
kitaro hat geschrieben: Kann das negative Auswirkungen auf das Ranking haben?
Hat jemand bereits selbst Erfahrungen mit solch einer Situation gemacht?

Verfasst: 05.06.2011, 03:12
von WoY
Hm, sollte eigentlich möglich sein Session-Ids via .htaccess Match passend umzuleiten.

Verfasst: 05.06.2011, 10:19
von e-fee
WoY hat geschrieben:Hm, sollte eigentlich möglich sein Session-Ids via .htaccess Match passend umzuleiten.
Steht doch oben, dass es laut den Programmierern nicht möglich ist.
(Der Shop benötigt die halt, wenn ein echter User da ist.)

Ich hab sowas mal vor einem guten Jahr auf einem XTC für jemanden gelöst, wo das Häkchen "Spider Sessions vermeiden" nicht gegriffen hatte, aber eben auch nur über die robots.txt und eine angepasste XML-Sitmap.