Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Session-Ids, dynamische URLs: Nachgefragt

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
whobee
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 19.07.2005, 00:10

Beitrag von whobee » 26.07.2005, 01:30

Hallo,

ich habe da so meine Probleme mit der Positionierung meines "Ladens" in den SERPs...
Zugegebener Maßen muß ich mich als Newbe outen, auch wenn ich mittlerweile schon Einiges gelernt habe...
Zuerst möchte ich noch zu meiner Ehrenrettung vorausschicken, daß die betreffende Applikation schon entwickelt wurde, als man Google noch für ein lustige Wortschöpfung hielt... :-)
Meine Problemstellungen sind manigfaltig: Angefangen von statischen Headern,statischen Metatags praktisch ohne Inhalt, äüßerst plakative Aufmachung, die außer einen Haufen Grafiken eigentlich keinen Content bietet, dynamischen Urls, die teilweise mit unterschiedlichen Parametern auf die selben Inhalte linken,usw,usf... ..bis hin zum eigentlich, meiner Ansicht nach immer noch größten Problem:
---------------
SESSION-IDs !!!
---------------
"Die Session-ID muß raus aus dem URL, egal wie.." hat mir dazu ein SEO geraten. Nur wie, daß konnte er mir nicht so genau erklären,
Nachdem ich erwähnt hatte, daß meine Kunden wahrscheinlich ungern auf die mitlerweile vorsichtig gesschätzen 30 % aller Kunden, die Cookies blocken, verzichten wollen, ganz abgesehen davon, daß bei uns Tracking-Systeme auf die Vergabe von Session-IDs aufsetzen und dies und das, was soll ich sagen...
("Oh mannnn! Wieder einer der mod_rewrite noch nicht implementiert hat !")
Ehrlich gesagt war und ist das der Plan (zumindest bis zu dem Tag, an dem Google beschließt, auch solche Seiten vernüftig zu crawlen, die keine extra für Google mundgeklöppelten und keyword-optimierte URLs enthalten und die wie Verzeichnisse aussehen müssen)
Aber die Umbaumaßnahmen scheinen umfangreich und der Platz für Konsolidierung ist klein.
Zudem komme ich auch mit mod_rewrite nicht wirklich um die Session-Thematik herum! Bitte lasst mich wissen, wenn ich hier eine Entwicklung verschlafen habe...
Wahrscheinlich wird mir jeder bestätigen, daß Googlebot Session-IDs verabscheut *wie die Pest* und praktisch keine Links verfolgt...
also was liegt näher als: Raus damit! Und wenn es nicht für alle geht, doch dann wenigsten für die Crawler...
Nach meinen bisherigen Erkenntnissen kam ich um eine Browserweiche nicht herum ("Cloaking-Alarm"!!!)
Das schien mir der sinnvollste Weg. In vielen Foren wird geraten, Spider, wenn überhaupt, an IP-Adressen oder Netzen festzumachen,
daß sei "sicherer"... Aber eigentlich will ich den Spidern gar nicht vorenthalten, daß ich meine Seite für sie "optimieren" will, zudem halte
ich es sowieso für irgendwie naiv zu glauben, daß man alle Google-Netzwerke kennt!?
Nicht zuletzt aufgrund der "Probleme" mit dem Spider "slurp", der uns, eigentlich löblicher Weise, mit phasenweise über 200K Visits
täglich die Bude einrannte (und dafür praktisch nicht listete... aber das ist eine andere Geschichte) hatte ich Handlungsbedarf:
Robots initialisieren jetzt keine Sessions mehr und dementsprechend gelten für den Robot auch gewisse Einschränkungen...
Mittlerweile habe auch einen "sehr pragmatischen Weg" gefunden, Session-Ids für Robots zu eliminieren..
Zudem versuche ich,überflüssige oder redundante Parameter in den URLs ( für Robots) mit 301 geradezubiegen.
Die URLs sind allerdings immer noch "dynamisch"...
Die Spider scheinen dies durchweg gut anzunehmen, insbesondere googlebot spidert, wenn auch zögerlich, aber
immerhin kontinuierlich meine Seiten, zumindest auf den ersten Blick zu meiner Zufriedenheit..

Allerdings scheint die Anzahl der letztlich bei Google gelisteten Seiten auf ein gewisses Maß begrenzt, in meinem Fall so etwa bei 20 000...

Und schon bin ich bei meinen Fragen:

Ist daß Cloaking? Ich zeige dem Bot je keine "anderen" Inhalte (nebenbei bemerkt ist ja auch abakus-internet-marketing recht gut gelistet,
an der Browserweiche kann es also nicht liegen ;-) )

Sind Seiten mit Urls der Form "/bla.script?p1=pe1&p2=pe2" wirklich derart benachteiligt?
Gibt es nach euren Erfahrung hier eine Bremse??

Bei immer mehr Seiten sehe ich so etwas wie
/key-word/keyword.html;session-id=4938403
(Nach Aussagen von Google ist ja dynamisch, "was das Zeichen '?' im Url enthält" !?!? (Google-Informationen für Webmaster))
Ist so ein URL dann aus Google-Sicht nicht "dynamisch" ?

Kann mir jemand sagen,

warum Seiten in den SERPS Seiten erscheinen, die per robots.txt ausgeschlossen sind und nachweislich nicht einmal (von Googlebot) requested wurden?

WELCHEN SINN MACHT DAS ? ( ...vor allem das...)

warum Google dynamische URLs nicht normalisiert, die sich lediglich in der Parameterreihenfolge unterscheiden?
(werden offensichtlich doppelt gelistet)

ob ich auf diesem Weg überhaupt ein Chance habe ???????

Vielen Dank für Euer Feedback

Gruß
whobee

Site-info:PR6,BL:739

(@southmedia, den ich sicher auf den Plan gerufen habe: Eigentlich wollte ich nur zwei Fragen posten, aber irgendwie ....

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 26.07.2005, 02:08

Ist daß Cloaking? Ich zeige dem Bot je keine "anderen" Inhalte (nebenbei bemerkt ist ja auch abakus-internet-marketing recht gut gelistet, an der Browserweiche kann es also nicht liegen ;-) )
Der technsichen Definition nach ist es Cloaking - ja. Aber Cloaking ist nicht per Definition schlecht.
Sind Seiten mit Urls der Form "/bla.script?p1=pe1&p2=pe2" wirklich derart benachteiligt?
Gibt es nach euren Erfahrung hier eine Bremse??
Sagen wir es so: Mit anderen, schöneren URLs kommt man sicherlich besser voran.
Bei immer mehr Seiten sehe ich so etwas wie
/key-word/keyword.html;session-id=4938403
(Nach Aussagen von Google ist ja dynamisch, "was das Zeichen '?' im Url enthält" !?!? (Google-Informationen für Webmaster))
Ist so ein URL dann aus Google-Sicht nicht "dynamisch" ?
Das ist meine Meinung nach Müll, wirklich dynamsiche Daten sollen auch als solche Erkennbar sein. Ein solches Vorgehen hier produziert noch viel mehr nicht verwertbare Seiten für den Crawler.
Kann mir jemand sagen,

warum Seiten in den SERPS Seiten erscheinen, die per robots.txt ausgeschlossen sind und nachweislich nicht einmal (von Googlebot) requested wurden?

WELCHEN SINN MACHT DAS ? ( ...vor allem das...)
Was meinst du mit "SERPS Seiten" und mit "erscheinen"? Eine Suche mit "site:domain.de" ist klar von einer Suche nach "keyword" zu unterscheiden, und erscheinen kann dann entweder die Seite mit Titel und Textsnippet oder nur die URL.
warum Google dynamische URLs nicht normalisiert, die sich lediglich in der Parameterreihenfolge unterscheiden?
(werden offensichtlich doppelt gelistet)


Weil auch eine Parameterreihenfolge Einfluss auf die Seite haben könnte - und das nicht nur offensichtlich, sondern auch weit im Hintergrund.
ob ich auf diesem Weg überhaupt ein Chance habe ???????
Sicher.

whobee
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 19.07.2005, 00:10

Beitrag von whobee » 26.07.2005, 15:52

Hallo Jan,

vielen Dank für die schnelle Antwort.

Was meinst du mit "SERPS Seiten" und mit "erscheinen"? Eine Suche mit "site:domain.de" ist klar von einer Suche nach "keyword" zu unterscheiden, und erscheinen kann dann entweder die Seite mit Titel und Textsnippet oder nur die URL.
Da habe ich mich vielleicht etwas unglücklich ausgedrückt:

Im Index von Google werden URLs (also ohne Snippet, eben nur blanke URLS) gelistet, deren Script-Name ich per
robots.txt ausgeschlossen habe. Das für mich erstaunliche war, das diese URLs auch nie requested wurden.

Offensichlich werden auch per robots.txt ausgeschlossene URLs einfach mal so in den Index geworfen, ohne sie zu
prüfen und da stellt sich mir schon die Frage nach der Sinnhaftigkeit.

Natürlich sehe ich diese URLs nur mit der suche nach site:<domain>. Inhalte werden wohl, so hoffe ich, keine
gespeichert (was auch? Dieses Script gibt nix aus)

Ich glaube aber, schon eine mögliche Ursache identifiziert zu haben: Die benanten URLs sind über
Grafiken verlinkt, deren Alt-Tag mit dynamischem Text versorgt wird. (Das habe ich im Versuch getan, die Keyword-Dichte zu erhöhen)
Nach meinen Erfahrungen nimmt der Googlebot die Einträge in der robots.txt eigentlich sehr ernst, wenn es allerdings keywords gibt ...

Grundsätzlich frage ich mich schon, warum Google überhaupt URL listet, für die keine Inhalte gespeichert werden,
aber womöglich werden wie das nie vollumfänglich erfahren :-)
Weil auch eine Parameterreihenfolge Einfluss auf die Seite haben könnte - und das nicht nur offensichtlich, sondern auch weit im Hintergrund.

Das verstehe ich nicht. Meinst du damit, die Reihenfolge der Parameter hat Einfluss auf das Ranking der Seite? Die Reihenfolge der per "GET" geschickten Variablen (gilt sicher auch für POST) ist zumindest dem Script doch völlig einerlei unter der Voraussetzung, daß diese auch richtig ausgewertet werden.
Und was meinst du mit "weit im Hintergrund"?

Viele Grüße
whobee