Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Ja, das heißt so. Frage wäre aber, warum du das machst? Ginge es um irgendeine Form von Navigation, wäre das nämlich der falsche Weg.Sea Lion hat geschrieben:Angenommen, eine Webseite ist mit einfachen .html-Seiten gut in Suchmaschinen indexiert. Und nun wird diese Webseite durch PHP-Funktionen erweitert und intern werden die einzelnen Pages mit einem Parameter versehen (heißt das so?).
Wenn es sich um Webmaster-IDs handelt, du also Leute mit eigenen Webseiten ansprechen möchtest, halte ich das für unnötig. Du kannst genauso gut die verweisende Seite auswerten, ob du nun $_GET["id"] abfragst oder $_SERVER["HTTP_REFERER"] kommt doch aufs Gleiche raus, und du vermeidest den Parameterkrams gänzlich.Es geht um die Implementation eines Partnerprogramms und die jeweilige Webmaster-ID soll angehängt werden.
Ich würde diese Variante nur wählen, wenn Du starke Nerven hast, denn Du kannst sicher sein, daß sich ein Haufen Leute beschwert, daß ihre ID verschwindet und gleich mal wüst spekuliert wird, daß Du die Webmaster abzocken willst. Gerade die, die nie wirklich Umsatz bringen (sind eh immer die, die meckern) gehen Dir dann auf die Nerven...Sea Lion hat geschrieben:Yo, danke für die Antworten. Ich werde mir mal die mod_rewrite Sache näher anschauen.
Führt diese Vorgehensweise auch dazu, dass der Crawler -der ja auch URL-Parameter verpasst bekommt- dann einfach bei der Indizierung hinter dem "?" abschneidet oder indiziert er dann gar nicht, weil er auf einer URL mit Parametern unterwegs ist? (irgenwie ist die Frage (fast) unnötig, aber ich will sicher gehen).huah hat geschrieben:Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.
Wenn der Crawler Parameter-URLs vorgesetzt bekommt und es einen Ausschluss für diese URLs gibt, wird er sie nicht indizieren.RocknRolli hat geschrieben:Führt diese Vorgehensweise auch dazu, dass der Crawler -der ja auch URL-Parameter verpasst bekommt-huah hat geschrieben:Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.
hmVegas hat geschrieben:Ich würde diese Variante nur wählen, wenn Du starke Nerven hast, denn Du kannst sicher sein, daß sich ein Haufen Leute beschwert, daß ihre ID verschwindet und gleich mal wüst spekuliert wird, daß Du die Webmaster abzocken willst. Gerade die, die nie wirklich Umsatz bringen (sind eh immer die, die meckern) gehen Dir dann auf die Nerven...Sea Lion hat geschrieben:Yo, danke für die Antworten. Ich werde mir mal die mod_rewrite Sache näher anschauen.
Genau das war der eigentliche Kern meiner Frage: Schneiden SuMa-Crawler bei der Indizierung die Parameter ab?RocknRolli hat geschrieben:Führt diese Vorgehensweise auch dazu, dass der Crawler -der ja auch URL-Parameter verpasst bekommt- dann einfach bei der Indizierung hinter dem "?" abschneidet oder indiziert er dann gar nicht, weil er auf einer URL mit Parametern unterwegs ist? (irgenwie ist die Frage (fast) unnötig, aber ich will sicher gehen).huah hat geschrieben:Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.