Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Session IDs in Serps

Das Board für die kleine Abwechslung. Hast Du was lustiges im Web gefunden oder was offtopic dann hier rein!
PSyc
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 16.03.2009, 23:00

Beitrag von PSyc » 16.03.2009, 23:13

Einen schönen guten Abend und hallo zusammen,

ich weiß nicht so recht in welches Themengebiet meine Frage passt, deswegen am besten hier :).

Als unsere Seite die ersten Male indexiert worden ist mir aufgefallen, dass die Seiten mit unterschiedlichen Session IDs gecrawlt wurden.

Wie auch immer, das Problem wurde danach sofort beseitigt nur sehe ich jetzt das Problem, dass viele Seite im Google Index mehrfach auftauchen, da diese ja zuvor mit einer Session ID gecrawlt wurden und dann eben auch richtig nach das Problem behoben wurde.

Da ja Seiten im Index mit einer Session ID Duplicate Content ist sollte dieses Problem schnellstmöglich aus der Welt geschaffen werden.

Nun meine Frage, kann ich das über die WMT durchführen, sprich Anträge stellen um Seiten aus dem Index zu nehmen? Wenn ja, wie wirkt sich das ganze auf die Seite aus? Hier meine ich nicht das natürlich Seiten aus dem Index fliegen ;) ...

Ich meine, die Seite ist ja mehrfach im Index

yourdomain*com/contenta?session1
yourdomain*com/contenta?session2
yourdomain*com/contenta

usw. . Wenn ich die ersten beide Einträge zum löschen aus dem Index freigebe sollte rein theoretisch der letzte erhalten bleiben .. gibt es weiter nachteile außer das DC vorkam?

BTW, die ersten beiden Einträge sind immer noch erreichbar ...

Gibt es andere Wege oder Lösungen?


Danke für eure Hilfe im voraus!


Grüße

PSyc

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

PanchoVilla
PostRank 6
PostRank 6
Beiträge: 358
Registriert: 26.01.2009, 11:54
Wohnort: Köln / Amsterdam / GDL

Beitrag von PanchoVilla » 16.03.2009, 23:46

Sperr das per robots.txt, ist am einfachsten... Bei mir sind daraufhin, ohne Anträge zu stellen, die Pages aus dem Index geflogen.

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 16.03.2009, 23:58

das neu eingeführte canonical tag wird hier bestens weiterhelfen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


SISTRIX
PostRank 9
PostRank 9
Beiträge: 1255
Registriert: 01.09.2003, 20:57
Wohnort: Bonn

Beitrag von SISTRIX » 17.03.2009, 07:57

chris21 hat geschrieben:das neu eingeführte canonical tag wird hier bestens weiterhelfen.
Der beseitigt aber nicht die Ursache sondern doktert an den Auswirkungen herum. Lieber direkt richtig machen.
SISTRIX Suchmaschinen Blog
SEO- und SEM-Tools: [url=httpss://tools.sistrix.de/toolbox/?tid=lnk_foren_abk]SISTRIX Toolbox[/url]
Linktausch für PR9 und 10 gesucht!

turgay
PostRank 4
PostRank 4
Beiträge: 196
Registriert: 02.04.2005, 01:17

Beitrag von turgay » 17.03.2009, 10:27

Per robots.txt kriegt man sie nicht aus den SERPs. Hier und hier sind ein paar Lösungsvorschläge.

Viele Grüße

TBT
PostRank 5
PostRank 5
Beiträge: 306
Registriert: 13.02.2008, 16:11

Beitrag von TBT » 17.03.2009, 10:43

turgay hat geschrieben:Per robots.txt kriegt man sie nicht aus den SERPs. Hier und hier sind ein paar Lösungsvorschläge.

Viele Grüße
natürlich geht das !

User-agent: *
Disallow: *?PHPSESSID*

turgay
PostRank 4
PostRank 4
Beiträge: 196
Registriert: 02.04.2005, 01:17

Beitrag von turgay » 17.03.2009, 10:51

Nein, nicht unbedingt. Meistens führt diese Anweisung nur dazu, dass im Index nur ein Link und keine Description gezeigt wird. So bei einigen Projekten bei mir.
TBT hat geschrieben: natürlich geht das !

User-agent: *
Disallow: *?PHPSESSID*

proit
PostRank 8
PostRank 8
Beiträge: 664
Registriert: 15.10.2007, 12:05

Beitrag von proit » 17.03.2009, 11:06

Bei bekannten User robots wird serverseitig keine Session erzeugt, fertig. Hierzu wird der User-agent geprüft und dann entschieden ob es ein Robot oder ein Benutzer ist.

Das nachträgliche Umschreibung / Abschneiden der Session, damit verlagert man die Problemlösung in eine höher gelegene Ebene. Ist nicht gerade optimal. Wenn man selbst nicht die Möglichkeit hat, auf den Programm-Code einzuwirken wohl aber ein probates Mittel. Auf die Lösung nur Session-Cookies zu akzeptieren, wer's sich erlauben kann :-?

PanchoVilla
PostRank 6
PostRank 6
Beiträge: 358
Registriert: 26.01.2009, 11:54
Wohnort: Köln / Amsterdam / GDL

Beitrag von PanchoVilla » 17.03.2009, 11:38

Ich kann dir garantieren, dass diese Robots.txt zu dem oben genannten Ergebnis geführt hat...
User-Agent: *
Allow: /
Disallow: /admin/
Disallow: /marca/
Disallow: /documentos/
Disallow: /*/sid/
Disallow: /*?sid=
Disallow: /*&sid=
Disallow: /*cnid/
Disallow: /*anid/
@ Proit: Zustimmung!

PSyc
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 16.03.2009, 23:00

Beitrag von PSyc » 17.03.2009, 14:35

Hallo zusammen,

danke für die raschen Antworten!

Ich glaube ich habe mich falsch ausgdrückt oder ich verstehe etwas nicht!

Wenn ich per robots.txt gewisse sachen aussperre, löst das doch m.E. nicht mein Problem mit den bereits im Google Index gecrawlten URLs mit Session ID.

Das Problem an meinem System, sprich das komplette deaktivieren der Session IDs ist bereits passiert .. war wenn ich genauer in Detail gehen darf, eine Inkompatibilität zwischen CMS, PHP4 und der SEF Komponente ..

Was ich jetzt eigentlich möchte ist, das der Dupilcated Content im Google Index verschwindet ..


Grüße

PanchoVilla
PostRank 6
PostRank 6
Beiträge: 358
Registriert: 26.01.2009, 11:54
Wohnort: Köln / Amsterdam / GDL

Beitrag von PanchoVilla » 17.03.2009, 14:51

Ja doch, genau das passiert durch die Sperrung in der Robots.txt. Wenn du dies schon so, oder ähnlich, gemacht hast, dann musst du noch ein wenig warten. Bei mir hat dieser Prozess mehrere Monate gedauert.

PSyc
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 16.03.2009, 23:00

Beitrag von PSyc » 17.03.2009, 15:12

So jetzt nochmal zum Verständnis ..

URLs bei Google sehen wie folgt aus:

www*meinedomain*.org/contentA?SessionID1
www*meinedomain*.org/contentA?SessionID2
www*meinedomain*.org/contentA

Ich sperre

www*meinedomain*.org/contentA?SessionID1
www*meinedomain*.org/contentA?SessionID2

per robots.txt, richtig?

Damit fliegen die URLs mit der Session ID aus dem Index und die "richtige" bleibt im Index.

Bleibt die Frage w/ dem DC, wirkt sich das ganze extrem negativ aus?


Danke erstmal an alle !! Ein wirklich cooles Forum :) ..

bond
PostRank 4
PostRank 4
Beiträge: 186
Registriert: 20.06.2008, 00:41

Beitrag von bond » 17.03.2009, 17:22

Wenn man alle Seiten mit SID per 301 auf die ohne SID umleitet sollte es keine Probleme mit DC geben...

profo
PostRank 9
PostRank 9
Beiträge: 1703
Registriert: 18.01.2007, 18:51

Beitrag von profo » 17.03.2009, 19:36

Ich fasse noch mal kurz zusammen, weil es jetzt doch durcheinandergeht:

1) *Nicht* in der robots.txt sperren
2) 301-Umleitung einrichten (für die URLs die schon bei Google liegen)
3) CMS richtig konfigurieren. Entweder für nicht-eingeloggte User auf die sid verzichten, oder (nicht so schöner aber oft genutzter workaround per Cloaking): beim Aufruf durch bekannte Crawler die sid rausschmeissen.

PanchoVilla
PostRank 6
PostRank 6
Beiträge: 358
Registriert: 26.01.2009, 11:54
Wohnort: Köln / Amsterdam / GDL

Beitrag von PanchoVilla » 17.03.2009, 20:11

Ähm...

1) Wieso *nicht* in der robots.txt sperren?
2) Wie leitet man eine als Session ID gecrawlte URL per 301 um? Kann man auf diese "so" überhaupt zugreifen?
3) Hat er schon gemacht, es geht nur noch um die bestehenden indexierten Seiten...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag