Seite 1 von 2

Nachträglich Parameter an URLs - schlecht für SEO?

Verfasst: 05.01.2009, 21:39
von Sea Lion
Hallo,
dies ist mein erster Beitrag, ich lese schon seit Jahren immer mal wieder hier rum. Nun hab ich mal ne Frage:

Angenommen, eine Webseite ist mit einfachen .html-Seiten gut in Suchmaschinen indexiert. Und nun wird diese Webseite durch PHP-Funktionen erweitert und intern werden die einzelnen Pages mit einem Parameter versehen (heißt das so?). Ein Beispiel: "https://www.domain.de/page.html" wird nun intern und extern nur noch so verlinkt: "https://www.domain.de/page.html?WMID=". Es geht um die Implementation eines Partnerprogramms und die jeweilige Webmaster-ID soll angehängt werden.

Frage: Ist das irgendeiner Weise schädlich für die (derzeitige) Indexierung in SuMas (Google & Co.), bzw. hat das Auswirkungen auf die Suchmaschinenfreundlichkeit der Seite?
Die ursprünglich indexierte URL "https://www.domain.de/page.html" ist ja weiterhin vorhanden. Nur gibt es ab sofort keine Links mehr auf diese, sondern nur noch mit dem Anhang "?WMID=".

Danke schon mal für eure Antworten!

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 06.01.2009, 00:06
von Sea Lion
Ehm, ich will nicht drängeln, aber erklärt sich die Frage evtl. selbst? Mit anderen Worten: Blöde Frage?

Verfasst: 06.01.2009, 00:12
von r-alf
Nur mal so, damit du eine Antwort hast: keine Ahnung.

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 06.01.2009, 11:21
von Sea Lion
... mkay... ja ich hab auch keine Ahnung, deshalb ja die Frage, hahaha. Sonst jemand?

Verfasst: 10.01.2009, 14:02
von Sea Lion
Ich wäre wirklich über jede Meinung zu diesem Thema sehr dankbar, da ich in meinem Fall keine andere Möglichkeit sehe, als die Webmaster ID (als: "?WMID=", also PHP Paramter) an alle internen Links dran zu hängen. Und dabei keinen SEO-Fehler machen will.

Was sind Eure Erfahrungen mit geänderten Links und SEO?

Verfasst: 10.01.2009, 15:06
von huah
Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.
Obwohl google das mit dem DC scheinbar mehr oder weniger raffen soll:

https://googlewebmastercentral-de.blogs ... n-url.html
https://googlewebmastercentral-de.blogs ... -urls.html

Wenn Du das PP nur für kostenlose Links aufbauen willst, solltest Du Dir andere Möglichkeiten des Trackings überlegen - irgendwas mit 301.

Re: Nachträglich Parameter an URLs - schlecht für SEO?

Verfasst: 10.01.2009, 18:04
von Mork vom Ork
Sea Lion hat geschrieben:Angenommen, eine Webseite ist mit einfachen .html-Seiten gut in Suchmaschinen indexiert. Und nun wird diese Webseite durch PHP-Funktionen erweitert und intern werden die einzelnen Pages mit einem Parameter versehen (heißt das so?).
Ja, das heißt so. Frage wäre aber, warum du das machst? Ginge es um irgendeine Form von Navigation, wäre das nämlich der falsche Weg.
Es geht um die Implementation eines Partnerprogramms und die jeweilige Webmaster-ID soll angehängt werden.
Wenn es sich um Webmaster-IDs handelt, du also Leute mit eigenen Webseiten ansprechen möchtest, halte ich das für unnötig. Du kannst genauso gut die verweisende Seite auswerten, ob du nun $_GET["id"] abfragst oder $_SERVER["HTTP_REFERER"] kommt doch aufs Gleiche raus, und du vermeidest den Parameterkrams gänzlich.
Der Anteil Besucher, die diese Angabe unterdrücken (lassen), dürfte im Promillebereich liegen, in jedem Falle aber kleiner sein als der Anteil Besucher, die aus reiner Missgunst Partnerprogramm-URLs nicht verwenden.

Gehören zur Zielgruppe hingegen auch Leute ohne eigene Webseiten, wirst du um die Parameter nicht herumkommen. Ich täte in dem Falle per mod_rewrite parametrisierte URLs abfangen, auswerten und an die parameterlose Mutter-URL weiterleiten.
Auf diese Weise würden Parameter-URLs zwar aufgerufen (anders als beim Ausschluss via robots.txt), aber dank Weiterleitung wird nur die eigentliche URL indiziert.

Verfasst: 14.01.2009, 12:26
von Sea Lion
Yo, danke für die Antworten. Ich werde mir mal die mod_rewrite Sache näher anschauen.

Verfasst: 14.01.2009, 14:29
von Vegas
Sea Lion hat geschrieben:Yo, danke für die Antworten. Ich werde mir mal die mod_rewrite Sache näher anschauen.
Ich würde diese Variante nur wählen, wenn Du starke Nerven hast, denn Du kannst sicher sein, daß sich ein Haufen Leute beschwert, daß ihre ID verschwindet und gleich mal wüst spekuliert wird, daß Du die Webmaster abzocken willst. Gerade die, die nie wirklich Umsatz bringen (sind eh immer die, die meckern) gehen Dir dann auf die Nerven...

Verfasst: 14.01.2009, 15:30
von seo-nord
Und leider sind das auch genau diejenigen, denen Du das nicht erklärt bekommst, was da passiert und/oder warum. Die haben Dich beim "bescheißen" erwischt und
wollen das jetzt auskosten.

Verfasst: 16.01.2009, 15:27
von RocknRolli
huah hat geschrieben:Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.
Führt diese Vorgehensweise auch dazu, dass der Crawler -der ja auch URL-Parameter verpasst bekommt- dann einfach bei der Indizierung hinter dem "?" abschneidet oder indiziert er dann gar nicht, weil er auf einer URL mit Parametern unterwegs ist? (irgenwie ist die Frage (fast) unnötig, aber ich will sicher gehen).

Verfasst: 16.01.2009, 19:42
von Mork vom Ork
RocknRolli hat geschrieben:
huah hat geschrieben:Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.
Führt diese Vorgehensweise auch dazu, dass der Crawler -der ja auch URL-Parameter verpasst bekommt-
Wenn der Crawler Parameter-URLs vorgesetzt bekommt und es einen Ausschluss für diese URLs gibt, wird er sie nicht indizieren.

Verfasst: 26.01.2009, 23:57
von Sea Lion
Vegas hat geschrieben:
Sea Lion hat geschrieben:Yo, danke für die Antworten. Ich werde mir mal die mod_rewrite Sache näher anschauen.
Ich würde diese Variante nur wählen, wenn Du starke Nerven hast, denn Du kannst sicher sein, daß sich ein Haufen Leute beschwert, daß ihre ID verschwindet und gleich mal wüst spekuliert wird, daß Du die Webmaster abzocken willst. Gerade die, die nie wirklich Umsatz bringen (sind eh immer die, die meckern) gehen Dir dann auf die Nerven...
hm

Verfasst: 26.01.2009, 23:59
von Sea Lion
seo-nord hat geschrieben:Und leider sind das auch genau diejenigen, denen Du das nicht erklärt bekommst, was da passiert und/oder warum. Die haben Dich beim "bescheißen" erwischt und
wollen das jetzt auskosten.
hm

Verfasst: 27.01.2009, 00:02
von Sea Lion
RocknRolli hat geschrieben:
huah hat geschrieben:Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.
Führt diese Vorgehensweise auch dazu, dass der Crawler -der ja auch URL-Parameter verpasst bekommt- dann einfach bei der Indizierung hinter dem "?" abschneidet oder indiziert er dann gar nicht, weil er auf einer URL mit Parametern unterwegs ist? (irgenwie ist die Frage (fast) unnötig, aber ich will sicher gehen).
Genau das war der eigentliche Kern meiner Frage: Schneiden SuMa-Crawler bei der Indizierung die Parameter ab?