Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Tausende Produktseiten mit Session-IDs im Google Index

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Anonymous

Beitrag von Anonymous » 30.05.2011, 13:58

Hallo zusammen,

Google hat aus unserem Shop zig tausende Unterseiten indexiert, die Session-IDs enthalten. Wir benutzten im Quellcode bereits das rel canonical Attribut und haben unrelevante Seiten per Meta-Tag auf noindex,follow gesetzt.

Auf ein Disallow /*XTCsid in der robots.txt haben wir bisher bewusst verzichtet, da Google dies mittlerwiele nicht mehr empfiehlt:
Siehe: https://googlewebmastercentral-de.blogs ... ehren.html
Wir empfehlen mittlerweile, den Zugriff auf Duplicate Content auf eurer Site nicht zu blockieren - egal ob mittels robots.txt oder anderer Methoden. Verwendet stattdessen das rel="canonical" Link-Element, unser Tool zur Parameterbehandlung oder 301-Weiterleitungen.
Auch in den Webmaster Tools haben wir in der Parameterbehandlung XTCsid bereits eingetragen. Nach Absprache mit den Programmierern ist ein 301 redirect auf die URL ohne Session-ID scheinbar technisch nicht möglich.

Was können wir tun? Welche Auswirkungen haben die Unterseiten mit Session-IDs im Index?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Anonymous

Beitrag von Anonymous » 30.05.2011, 14:03

wie lange existiert das canonical schon?

Anonymous

Beitrag von Anonymous » 30.05.2011, 14:17

net(t)worker hat geschrieben:wie lange existiert das canonical schon?
Einige Monate auf jeden Fall. Früher haben wir per robots.txt mit disallow den Zugriff auf die Seiten mit XTCsid blockiert. Dieser "Strategiewechsel" hat nun dazu geführt:

Anzahl der URLs mit Session-IDs im Google Index:

Bild

Kann das negative Auswirkungen auf das Ranking haben?

Laut diesem Post hier (allerdings von Ende 2009) wohl nicht:
Grundsaetzlich wuerde ich vom Gebrauch der robots.txt-Datei zum Abfangen von Session-IDs in der URL abraten. Das Problem ist, dass wir diese URLs gar nicht anschauen koennen, und somit auch gar nicht erkennen koennen, dass es Duplikate sind (da hilft ein rel=canonical auch nicht weiter, wenn man die Seite gar nicht anschauen kann :-)). Ich wuerde also:
- die Session-IDs moeglichst aus den URLs entfernen,
- per URL parameter Tool innerhalb von Webmaster Tools die entsprechenden Parameter ignorieren lassen
- per rel=canonical nachdoppeln :)
Quelle: https://www.google.com/support/forum/p/ ... 6744&hl=de