Seite 1 von 1

Sessions in Google

Verfasst: 08.11.2007, 21:58
von Petaurus
Hallo zusammen!
ich grase seit drei Tagen erfolglos das Internet ab und jetzt bin ich endlich soweit, dass ich um Hilfe bitte.

Ich habe per Hand und aus Spaß einen kleinen Shop programmiert (PHP). Das war das erste Mal, dass ich mit Sessions gearbeitet habe und es sah auch recht problemlos aus - bis ich die ersten Ergebnisse in Google bewundern durfte...

Die Links werden mit Sessions gespidert.

Ich hatte erst das Prinzip: Wenn Cookies nicht erlaubt, dann nimm die URL und häng die SessionID an. Das habe ich nach einigem Suchen als "Falsch" ausgemacht und das ganze so umgestellt, dass es nur noch per Cookies läuft => Google soll sie ja nicht futtern, also - Logik - keine Sessions mehr in der URL.

Aber... in der Praxis schmeißt mir ein Testspider einen Großteil der URLs noch mit Session raus ( https://www.goweb.de/sitemaps.htm )

Dann habe ich probiert das ganze mit der Robots.txt zu lösen. Und zwar wie folgt:

User-agent: *
Disallow: /*?sessionid
Disallow: /*phpsessid

Letzteres heißt für mich: Alles was nach dem Verzeichnis root irgendwo im Link den begriff "phpsessid" enthält... (so zeigen mir der Spider es an)

Funzt aber auch nicht.

Wie stelle ich es an, dass Google meine Sessions nicht mehr futtert um den DuplContent zu vermeiden?

Ich habe dazu https://www.google.com/support/webmaste ... swer=35237 gefunden, aber obwohl ich nachgesehen habe, habe ich dort den Punkt EXTRAS nicht und habe leider auch beim durchklicken nichts gefunden.

Ich hoffe ihr könnt helfen. Google hat mich diesmal gleich im doppelten Sinne im Stich gelassen und ich weiß echt nicht mehr weiter :cry:

Kleiner Nachtrag: gehostetes STRATO Paket, also keine Einstellungmöglichkeiten auf Serverebene

LG
Petaurus

Verfasst:
von

Verfasst: 08.11.2007, 22:06
von Petaurus
Hab es bei den Google Webmastertools doch noch gefunden :o

LG
Petaurus

Verfasst: 09.11.2007, 09:47
von Liverson
Das Problem mit den Sessions haben die meisten Shops.
Welchen verwendest du, oder hast du eine eigens gestrickte Lösung gemacht?

Ich denke das ist aber nciht so tragisch, eine Url ob mit oder ohne Session wird bei Google im Index dann ja gut gerankt, wenn sauber optimiert und alle anderen in der Kategorie DC im Index nach hinten gereicht.

Verfasst:
von

Verfasst: 09.11.2007, 11:19
von Zerstreuter
Liverson hat geschrieben:Ich denke das ist aber nciht so tragisch, eine Url ob mit oder ohne Session wird bei Google im Index dann ja gut gerankt, wenn sauber optimiert und alle anderen in der Kategorie DC im Index nach hinten gereicht.
Das Ranking einer Seite wird maßgeblich von den eingehenden Links bestimmt.

Frage: Wieviele eingehende Links hat eine Seite mit SessionID?
Antwort: gar keine

Wie sich das auf das Ranking auswirkt kann sich jeder selber ausmalen.

Verfasst: 09.11.2007, 11:33
von Liverson
Frage: Wieviele eingehende Links hat eine Seite mit SessionID?
Antwort: gar keine
ja, aber eine Seite im Index hat ja keine SessionID und das ist ja auch die, die eingehende Links hat. Wird dann nciht die in den Serps landen und die mit den Sessions als DC nach hinten gereicht?

Verfasst: 10.11.2007, 09:22
von Petaurus
Hi,
wenn ich mir meine Statistiken ansehe kann ich nur sagen, dass 85% auf Unterseiten einsteigen und nicht über den Index. das Problem ist eher folgendes:
./example.php ist momentan vorhanden. Bei Google heißt die Seite ./example.php?phpsessid=xyz
Damit habe ich laut Google schon zwei verschiedene Seiten.
Beim nächsten Besuch ist es
./example.php?phpsessid=abc

Damit habe ich drei Seiten mit gleichem Content. Pagerank ist und bleibt 0. Backlinks gibt es auf diese Seiten (hoffentlich) nicht.

Da Waren darüber verkauft werden wollen wir von Hackermöglichkeiten mal besser gar nicht reden, wenn viele mit der gleichen Session kommen.

Offenbar hat mein Anbieter in der php-ini aber eine Variable angestellt, die es dafür nicht sein dürfte - also scheinbar kein echtes robots.txt Problem.

Trotzdem noch eine Frage, bitte:

Was passiert, wen ich solange das Problem da ist ein komplettes Disallow ausspreche?
Kommt der Bot trotzdem irgendwann wieder und kontrolliert, ob sich meine robots.txt geändert hat? Ich will mir die Seite ja nicht wirklich dauerhaft demolieren.

Gruß,
Petaurus

Verfasst: 10.11.2007, 14:07
von Liverson
ich denke du müsstest mit

Disallow: /*?phpsessid

in der robots.txt das problem eigentlich beseitigen können, aber nagel mich jetzt nicht fest

Verfasst: 10.11.2007, 14:51
von Petaurus
Würde ich mir die Seite damit nicht komplett für den Bot sperren?

Eigentlich möchte ich ja, das z.B. artikel.php/id=123&phpsessid=xyz grundsätzlich rein kommt. Nur das letzte müsste halt raus.

Wenn er jetzt auf diese Weise das *phpsessid=xyz findet berücksichtigt er diese Seite gar nicht mehr?

Der Spider den ich oben genannt habe ignoriert leider auch Metatags mit noindex und die Bot anscheinend total.

Kennt ihr bessere, bei denen man seine robot.txt mal testen kann?

Gruß
Petaurus