Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Der technsichen Definition nach ist es Cloaking - ja. Aber Cloaking ist nicht per Definition schlecht.Ist daß Cloaking? Ich zeige dem Bot je keine "anderen" Inhalte (nebenbei bemerkt ist ja auch abakus-internet-marketing recht gut gelistet, an der Browserweiche kann es also nicht liegen )
Sagen wir es so: Mit anderen, schöneren URLs kommt man sicherlich besser voran.Sind Seiten mit Urls der Form "/bla.script?p1=pe1&p2=pe2" wirklich derart benachteiligt?
Gibt es nach euren Erfahrung hier eine Bremse??
Das ist meine Meinung nach Müll, wirklich dynamsiche Daten sollen auch als solche Erkennbar sein. Ein solches Vorgehen hier produziert noch viel mehr nicht verwertbare Seiten für den Crawler.Bei immer mehr Seiten sehe ich so etwas wie
/key-word/keyword.html;session-id=4938403
(Nach Aussagen von Google ist ja dynamisch, "was das Zeichen '?' im Url enthält" !?!? (Google-Informationen für Webmaster))
Ist so ein URL dann aus Google-Sicht nicht "dynamisch" ?
Was meinst du mit "SERPS Seiten" und mit "erscheinen"? Eine Suche mit "site:domain.de" ist klar von einer Suche nach "keyword" zu unterscheiden, und erscheinen kann dann entweder die Seite mit Titel und Textsnippet oder nur die URL.Kann mir jemand sagen,
warum Seiten in den SERPS Seiten erscheinen, die per robots.txt ausgeschlossen sind und nachweislich nicht einmal (von Googlebot) requested wurden?
WELCHEN SINN MACHT DAS ? ( ...vor allem das...)
warum Google dynamische URLs nicht normalisiert, die sich lediglich in der Parameterreihenfolge unterscheiden?
(werden offensichtlich doppelt gelistet)
Sicher.ob ich auf diesem Weg überhaupt ein Chance habe ???????
Da habe ich mich vielleicht etwas unglücklich ausgedrückt:Was meinst du mit "SERPS Seiten" und mit "erscheinen"? Eine Suche mit "site:domain.de" ist klar von einer Suche nach "keyword" zu unterscheiden, und erscheinen kann dann entweder die Seite mit Titel und Textsnippet oder nur die URL.
Weil auch eine Parameterreihenfolge Einfluss auf die Seite haben könnte - und das nicht nur offensichtlich, sondern auch weit im Hintergrund.
Da bin ich ganz deiner Meinung und ich habe es eben selbst ausprobiert: Bei einer Suchanfrage nur nach dem fraglichen (in meinen Fall) Script-Namen (will sagen ohne site: Parameter) erhalte ich:Das gefällt mir schonmal überhaupt nicht. Diese Seiten werden sogar bei einer normalen "verzeichnisnameX"-Abfrage gefunden. Man dürfte allerdings im Normalfall nur bei recht obskuren Verzeichnisnamen zu finden sein, andernfalls sollte man beim Ranking keine Chance haben.
Offensichtlich werden die URLs auch bei der Eingabe eines Keywords gelistet, ohne site: Parameter . Wenn mein fragliches Script beispielsweise reisen.pl heisst, werde ich bei der Eingabe von "Reisen" auch irgendwo meinen hässlichen URLs wiederfinden .... wenn auch gaaaanz weit hinten!Eine Suche mit "site:domain.de" ist klar von einer Suche nach "keyword" zu unterscheiden, und erscheinen kann dann entweder die Seite mit Titel und Textsnippet oder nur die URL.
In meiner "ersten Ausbaustufe" hatte ich den identifizierten Robots eine statische Session-Id verpasst, nicht zuletzt auch deswegen, damit die Systeme kompatibel bleiben.... Der MSN-Bot beispielsweise hat dies bedingunglos geschluckt, aber bei Google kam ich damit vom Regen in die Traufe... Die Crawling-Aktivitäten und die Anzahl der gelisteten Seiten im Index wanderten gegen Null! Es lag wohl auch am Wert der statischen ID, der mit einer Länge von 32 Byte von Google einfach per se schon mal als Session-Id oder "sonstigem Unfug" gehandhabt wird.Ich habe es in meinem Shop (Perl) damals so gelöst, das es ein Modul gab, welches Bots erkannte. In dem Falle wurde dann die Session-ID durch einen fixen Wert ersetzt.
Eine andere Möglichkeit gibt es wohl nicht.
Sobald eine Seite irgendwo verlinkt wurde, wird die URL als Vermerk in den Index von Google aufgenommen. Spricht dann nichts gegen eine Indexierung (robots.txt, 404) wird die Datei gespidert und auch bei normalen Suchergebnissen präsentiert.Im Index von Google werden URLs (also ohne Snippet, eben nur blanke URLS) gelistet, deren Script-Name ich per robots.txt ausgeschlossen habe. Das für mich erstaunliche war, das diese URLs auch nie requested wurden.
Theoretisch ist es möglich dass ich in meinem Skript Sachen von der Reihenfolge der Parameter abhängig mache. Google setzt vermutlich darauf, dass 2 URLs erstmal nur dann gleich sind, wenn sie gleich sind, sprich ein Stringvergleich erfolgreich ist.Das verstehe ich nicht. Meinst du damit, die Reihenfolge der Parameter hat Einfluss auf das Ranking der Seite? Die Reihenfolge der per "GET" geschickten Variablen (gilt sicher auch für POST) ist zumindest dem Script doch völlig einerlei unter der Voraussetzung, daß diese auch richtig ausgewertet werden.
Und was meinst du mit "weit im Hintergrund"?
Ich habe damals das Wort "abraxas" benutzt. Das sollte so gut oder schlecht sein wie jedes andere Kunstwort, wobei eines das zur Shopthematik passt wäre besser...whobee hat geschrieben: Bei mir wurde es erst besser, als ich den Wert durch einen beim besten Willen nicht mehr als Session-ID zu interpretierenden Wert ersetzt habe.
Welchen fixen Wert hast du denn verwendet?
Hm.... es spricht doch etwas gegen die Indexierung: Exclusion durch robots.txt und 404 liefert das Script auch nicht zurück. Aber das kann der Bot ohnehin ja gar nicht wissen, schliesslich hat er den Request nie ausgeführt... naja, zumindest hat er sich nicht identifiziert.Sobald eine Seite irgendwo verlinkt wurde, wird die URL als Vermerk in den Index von Google aufgenommen.Spricht dann nichts gegen eine Indexierung (robots.txt, 404) wird die Datei gespidert und auch bei normalen Suchergebnissen präsentiert.
Ich habe jetzt beschlosssen, mir die ganze Sache zunutze zu machen: Es läuft gerade gut und ich habe schon über 30K dieser toten Links im Index (Tendenz stark steigend!) Sollte tatsächlich mal einer drüber stolpern landet er auf der Startseite.. hoffenlich wird mir das nicht mal als Spam ausgelegt!Das gefällt mir schonmal überhaupt nicht. Diese Seiten werden sogar bei einer normalen "verzeichnisnameX"-Abfrage gefunden. Man dürfte allerdings im Normalfall nur bei recht obskuren Verzeichnisnamen zu finden sein, andernfalls sollte man beim Ranking keine Chance haben.
Da hast du natürlich recht!Theoretisch ist es möglich dass ich in meinem Skript Sachen von der Reihenfolge der Parameter abhängig mache.
Ja scheint ganz so!? Allerdings hatte ich in meiner naiver Weise eigentlich schon erwartet, dass Goolge seine URL-Analyse etwas sorgsamer vornimmt als durch tumpe Stringvergleiche ... ?Google setzt vermutlich darauf, dass 2 URLs erstmal nur dann gleich sind, wenn sie gleich sind, sprich ein Stringvergleich erfolgreich ist.
Indexiert wurde die Seite ja auch nicht, nur die URL wurde in den Index aufgenommen. Dazu reicht es aus eine Seite zu verlinken. robots.txt verbietet dem Bot die Seite zu indexieren und den Inhalt zu übernehmen.Hm.... es spricht doch etwas gegen die Indexierung: Exclusion durch robots.txt und 404 liefert das Script auch nicht zurück. Aber das kann der Bot ohnehin ja gar nicht wissen, schliesslich hat er den Request nie ausgeführt... naja, zumindest hat er sich nicht identifiziert.
Kann man nicht wissen - Fakt ist nur dass 2 URLs mit versch Parameterreihenfolge nunmal als verschiedene URLs behandelt werden. Ende.Allerdings hatte ich in meiner naiver Weise eigentlich schon erwartet, dass Goolge seine URL-Analyse etwas sorgsamer vornimmt als durch tumpe Stringvergleiche ... ?
...wollte deine Geduld nicht überstrapazieren.Kann man nicht wissen - Fakt ist nur dass 2 URLs mit versch Parameterreihenfolge nunmal als verschiedene URLs behandelt werden. Ende
Ich weiß nicht, wie oft ich es schon gelesen habe ..Ermöglichen Sie es Suchrobotern, Ihre Website ohne Sitzungs-IDs oder Argumente, die ihren Weg durch die Website aufzeichnen, zu durchlaufen
robots.txt? oder zeigst du die Inhalte erst gar nicht anIch bin dazu übergegangen sämtliche dynamische Seiten für die Boots zu sperren
Das ist natürlich (fast) die Ideallösung, wenn auch mit diesem Haar in der Suppe... Weil ich das nicht wollte, bin ich schon sehr früh (noch bevor SEO ein Thema war) dazu übergegangen, dafür zu sorgen, daß jeder Benutzer, auch beim Einstieg in die Seite, einen URL mit gültiger Session-ID erhält und das halte ich auch nach wie vor für sinnvoll. Den schliesslichBzw. er bewegt sich durch den Shop und erst wenn er was kaufen will (Warenkorb) bekommt er seine Session. Hat den Nachteil das er im Browser beim Betätigen des „<< Zurück Button“ sein Wahrenkorb Inhalt verliert.
Das einfachste erscheint ein POST-Request zur Warenkorb Seite. Google kann kein POST-Request folgen.In meinem neuesten Auftritt will alle URLs, die "Session-relevant" sind (warenkorb einfügen, warenkorb anzeigen u.s.w) gewisser Maßen "wegcloaken" und den Bots erst gar nicht zeigen.Damit sie nicht auf die Idee kommen, dies trotzdem zu indizieren oder zu listen oder was auch immer ....