Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Session-Ids, dynamische URLs: Nachgefragt

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
whobee
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 19.07.2005, 00:10

Beitrag von whobee » 26.07.2005, 01:30

Hallo,

ich habe da so meine Probleme mit der Positionierung meines "Ladens" in den SERPs...
Zugegebener Maßen muß ich mich als Newbe outen, auch wenn ich mittlerweile schon Einiges gelernt habe...
Zuerst möchte ich noch zu meiner Ehrenrettung vorausschicken, daß die betreffende Applikation schon entwickelt wurde, als man Google noch für ein lustige Wortschöpfung hielt... :-)
Meine Problemstellungen sind manigfaltig: Angefangen von statischen Headern,statischen Metatags praktisch ohne Inhalt, äüßerst plakative Aufmachung, die außer einen Haufen Grafiken eigentlich keinen Content bietet, dynamischen Urls, die teilweise mit unterschiedlichen Parametern auf die selben Inhalte linken,usw,usf... ..bis hin zum eigentlich, meiner Ansicht nach immer noch größten Problem:
---------------
SESSION-IDs !!!
---------------
"Die Session-ID muß raus aus dem URL, egal wie.." hat mir dazu ein SEO geraten. Nur wie, daß konnte er mir nicht so genau erklären,
Nachdem ich erwähnt hatte, daß meine Kunden wahrscheinlich ungern auf die mitlerweile vorsichtig gesschätzen 30 % aller Kunden, die Cookies blocken, verzichten wollen, ganz abgesehen davon, daß bei uns Tracking-Systeme auf die Vergabe von Session-IDs aufsetzen und dies und das, was soll ich sagen...
("Oh mannnn! Wieder einer der mod_rewrite noch nicht implementiert hat !")
Ehrlich gesagt war und ist das der Plan (zumindest bis zu dem Tag, an dem Google beschließt, auch solche Seiten vernüftig zu crawlen, die keine extra für Google mundgeklöppelten und keyword-optimierte URLs enthalten und die wie Verzeichnisse aussehen müssen)
Aber die Umbaumaßnahmen scheinen umfangreich und der Platz für Konsolidierung ist klein.
Zudem komme ich auch mit mod_rewrite nicht wirklich um die Session-Thematik herum! Bitte lasst mich wissen, wenn ich hier eine Entwicklung verschlafen habe...
Wahrscheinlich wird mir jeder bestätigen, daß Googlebot Session-IDs verabscheut *wie die Pest* und praktisch keine Links verfolgt...
also was liegt näher als: Raus damit! Und wenn es nicht für alle geht, doch dann wenigsten für die Crawler...
Nach meinen bisherigen Erkenntnissen kam ich um eine Browserweiche nicht herum ("Cloaking-Alarm"!!!)
Das schien mir der sinnvollste Weg. In vielen Foren wird geraten, Spider, wenn überhaupt, an IP-Adressen oder Netzen festzumachen,
daß sei "sicherer"... Aber eigentlich will ich den Spidern gar nicht vorenthalten, daß ich meine Seite für sie "optimieren" will, zudem halte
ich es sowieso für irgendwie naiv zu glauben, daß man alle Google-Netzwerke kennt!?
Nicht zuletzt aufgrund der "Probleme" mit dem Spider "slurp", der uns, eigentlich löblicher Weise, mit phasenweise über 200K Visits
täglich die Bude einrannte (und dafür praktisch nicht listete... aber das ist eine andere Geschichte) hatte ich Handlungsbedarf:
Robots initialisieren jetzt keine Sessions mehr und dementsprechend gelten für den Robot auch gewisse Einschränkungen...
Mittlerweile habe auch einen "sehr pragmatischen Weg" gefunden, Session-Ids für Robots zu eliminieren..
Zudem versuche ich,überflüssige oder redundante Parameter in den URLs ( für Robots) mit 301 geradezubiegen.
Die URLs sind allerdings immer noch "dynamisch"...
Die Spider scheinen dies durchweg gut anzunehmen, insbesondere googlebot spidert, wenn auch zögerlich, aber
immerhin kontinuierlich meine Seiten, zumindest auf den ersten Blick zu meiner Zufriedenheit..

Allerdings scheint die Anzahl der letztlich bei Google gelisteten Seiten auf ein gewisses Maß begrenzt, in meinem Fall so etwa bei 20 000...

Und schon bin ich bei meinen Fragen:

Ist daß Cloaking? Ich zeige dem Bot je keine "anderen" Inhalte (nebenbei bemerkt ist ja auch abakus-internet-marketing recht gut gelistet,
an der Browserweiche kann es also nicht liegen ;-) )

Sind Seiten mit Urls der Form "/bla.script?p1=pe1&p2=pe2" wirklich derart benachteiligt?
Gibt es nach euren Erfahrung hier eine Bremse??

Bei immer mehr Seiten sehe ich so etwas wie
/key-word/keyword.html;session-id=4938403
(Nach Aussagen von Google ist ja dynamisch, "was das Zeichen '?' im Url enthält" !?!? (Google-Informationen für Webmaster))
Ist so ein URL dann aus Google-Sicht nicht "dynamisch" ?

Kann mir jemand sagen,

warum Seiten in den SERPS Seiten erscheinen, die per robots.txt ausgeschlossen sind und nachweislich nicht einmal (von Googlebot) requested wurden?

WELCHEN SINN MACHT DAS ? ( ...vor allem das...)

warum Google dynamische URLs nicht normalisiert, die sich lediglich in der Parameterreihenfolge unterscheiden?
(werden offensichtlich doppelt gelistet)

ob ich auf diesem Weg überhaupt ein Chance habe ???????

Vielen Dank für Euer Feedback

Gruß
whobee

Site-info:PR6,BL:739

(@southmedia, den ich sicher auf den Plan gerufen habe: Eigentlich wollte ich nur zwei Fragen posten, aber irgendwie ....