Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Nachträglich Parameter an URLs - schlecht für SEO?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Sea Lion
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 05.01.2009, 21:25

Beitrag von Sea Lion » 05.01.2009, 21:39

Hallo,
dies ist mein erster Beitrag, ich lese schon seit Jahren immer mal wieder hier rum. Nun hab ich mal ne Frage:

Angenommen, eine Webseite ist mit einfachen .html-Seiten gut in Suchmaschinen indexiert. Und nun wird diese Webseite durch PHP-Funktionen erweitert und intern werden die einzelnen Pages mit einem Parameter versehen (heißt das so?). Ein Beispiel: "https://www.domain.de/page.html" wird nun intern und extern nur noch so verlinkt: "https://www.domain.de/page.html?WMID=". Es geht um die Implementation eines Partnerprogramms und die jeweilige Webmaster-ID soll angehängt werden.

Frage: Ist das irgendeiner Weise schädlich für die (derzeitige) Indexierung in SuMas (Google & Co.), bzw. hat das Auswirkungen auf die Suchmaschinenfreundlichkeit der Seite?
Die ursprünglich indexierte URL "https://www.domain.de/page.html" ist ja weiterhin vorhanden. Nur gibt es ab sofort keine Links mehr auf diese, sondern nur noch mit dem Anhang "?WMID=".

Danke schon mal für eure Antworten!

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Sea Lion
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 05.01.2009, 21:25

Beitrag von Sea Lion » 06.01.2009, 00:06

Ehm, ich will nicht drängeln, aber erklärt sich die Frage evtl. selbst? Mit anderen Worten: Blöde Frage?

r-alf
PostRank 9
PostRank 9
Beiträge: 1819
Registriert: 09.09.2008, 21:49
Wohnort: Garage / Melmac

Beitrag von r-alf » 06.01.2009, 00:12

Nur mal so, damit du eine Antwort hast: keine Ahnung.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Sea Lion
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 05.01.2009, 21:25

Beitrag von Sea Lion » 06.01.2009, 11:21

... mkay... ja ich hab auch keine Ahnung, deshalb ja die Frage, hahaha. Sonst jemand?

Sea Lion
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 05.01.2009, 21:25

Beitrag von Sea Lion » 10.01.2009, 14:02

Ich wäre wirklich über jede Meinung zu diesem Thema sehr dankbar, da ich in meinem Fall keine andere Möglichkeit sehe, als die Webmaster ID (als: "?WMID=", also PHP Paramter) an alle internen Links dran zu hängen. Und dabei keinen SEO-Fehler machen will.

Was sind Eure Erfahrungen mit geänderten Links und SEO?

huah
PostRank 6
PostRank 6
Beiträge: 429
Registriert: 19.04.2007, 21:56

Beitrag von huah » 10.01.2009, 15:06

Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.
Obwohl google das mit dem DC scheinbar mehr oder weniger raffen soll:

https://googlewebmastercentral-de.blogs ... n-url.html
https://googlewebmastercentral-de.blogs ... -urls.html

Wenn Du das PP nur für kostenlose Links aufbauen willst, solltest Du Dir andere Möglichkeiten des Trackings überlegen - irgendwas mit 301.

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 10.01.2009, 18:04

Sea Lion hat geschrieben:Angenommen, eine Webseite ist mit einfachen .html-Seiten gut in Suchmaschinen indexiert. Und nun wird diese Webseite durch PHP-Funktionen erweitert und intern werden die einzelnen Pages mit einem Parameter versehen (heißt das so?).
Ja, das heißt so. Frage wäre aber, warum du das machst? Ginge es um irgendeine Form von Navigation, wäre das nämlich der falsche Weg.
Es geht um die Implementation eines Partnerprogramms und die jeweilige Webmaster-ID soll angehängt werden.
Wenn es sich um Webmaster-IDs handelt, du also Leute mit eigenen Webseiten ansprechen möchtest, halte ich das für unnötig. Du kannst genauso gut die verweisende Seite auswerten, ob du nun $_GET["id"] abfragst oder $_SERVER["HTTP_REFERER"] kommt doch aufs Gleiche raus, und du vermeidest den Parameterkrams gänzlich.
Der Anteil Besucher, die diese Angabe unterdrücken (lassen), dürfte im Promillebereich liegen, in jedem Falle aber kleiner sein als der Anteil Besucher, die aus reiner Missgunst Partnerprogramm-URLs nicht verwenden.

Gehören zur Zielgruppe hingegen auch Leute ohne eigene Webseiten, wirst du um die Parameter nicht herumkommen. Ich täte in dem Falle per mod_rewrite parametrisierte URLs abfangen, auswerten und an die parameterlose Mutter-URL weiterleiten.
Auf diese Weise würden Parameter-URLs zwar aufgerufen (anders als beim Ausschluss via robots.txt), aber dank Weiterleitung wird nur die eigentliche URL indiziert.

Sea Lion
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 05.01.2009, 21:25

Beitrag von Sea Lion » 14.01.2009, 12:26

Yo, danke für die Antworten. Ich werde mir mal die mod_rewrite Sache näher anschauen.

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 14.01.2009, 14:29

Sea Lion hat geschrieben:Yo, danke für die Antworten. Ich werde mir mal die mod_rewrite Sache näher anschauen.
Ich würde diese Variante nur wählen, wenn Du starke Nerven hast, denn Du kannst sicher sein, daß sich ein Haufen Leute beschwert, daß ihre ID verschwindet und gleich mal wüst spekuliert wird, daß Du die Webmaster abzocken willst. Gerade die, die nie wirklich Umsatz bringen (sind eh immer die, die meckern) gehen Dir dann auf die Nerven...
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

seo-nord
PostRank 3
PostRank 3
Beiträge: 69
Registriert: 07.01.2009, 09:31
Wohnort: Bad Schwartau

Beitrag von seo-nord » 14.01.2009, 15:30

Und leider sind das auch genau diejenigen, denen Du das nicht erklärt bekommst, was da passiert und/oder warum. Die haben Dich beim "bescheißen" erwischt und
wollen das jetzt auskosten.

RocknRolli
PostRank 1
PostRank 1
Beiträge: 28
Registriert: 17.09.2008, 13:02
Wohnort: Mannheim

Beitrag von RocknRolli » 16.01.2009, 15:27

huah hat geschrieben:Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.
Führt diese Vorgehensweise auch dazu, dass der Crawler -der ja auch URL-Parameter verpasst bekommt- dann einfach bei der Indizierung hinter dem "?" abschneidet oder indiziert er dann gar nicht, weil er auf einer URL mit Parametern unterwegs ist? (irgenwie ist die Frage (fast) unnötig, aber ich will sicher gehen).

Mork vom Ork
PostRank 9
PostRank 9
Beiträge: 2557
Registriert: 08.07.2008, 11:07
Wohnort: Aufm Friedhof.

Beitrag von Mork vom Ork » 16.01.2009, 19:42

RocknRolli hat geschrieben:
huah hat geschrieben:Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.
Führt diese Vorgehensweise auch dazu, dass der Crawler -der ja auch URL-Parameter verpasst bekommt-
Wenn der Crawler Parameter-URLs vorgesetzt bekommt und es einen Ausschluss für diese URLs gibt, wird er sie nicht indizieren.

Sea Lion
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 05.01.2009, 21:25

Beitrag von Sea Lion » 26.01.2009, 23:57

Vegas hat geschrieben:
Sea Lion hat geschrieben:Yo, danke für die Antworten. Ich werde mir mal die mod_rewrite Sache näher anschauen.
Ich würde diese Variante nur wählen, wenn Du starke Nerven hast, denn Du kannst sicher sein, daß sich ein Haufen Leute beschwert, daß ihre ID verschwindet und gleich mal wüst spekuliert wird, daß Du die Webmaster abzocken willst. Gerade die, die nie wirklich Umsatz bringen (sind eh immer die, die meckern) gehen Dir dann auf die Nerven...
hm

Sea Lion
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 05.01.2009, 21:25

Beitrag von Sea Lion » 26.01.2009, 23:59

seo-nord hat geschrieben:Und leider sind das auch genau diejenigen, denen Du das nicht erklärt bekommst, was da passiert und/oder warum. Die haben Dich beim "bescheißen" erwischt und
wollen das jetzt auskosten.
hm

Sea Lion
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 05.01.2009, 21:25

Beitrag von Sea Lion » 27.01.2009, 00:02

RocknRolli hat geschrieben:
huah hat geschrieben:Ich würde dazu tendieren, alle URLs mit "?" per robots.txt auszuschliessen.
Führt diese Vorgehensweise auch dazu, dass der Crawler -der ja auch URL-Parameter verpasst bekommt- dann einfach bei der Indizierung hinter dem "?" abschneidet oder indiziert er dann gar nicht, weil er auf einer URL mit Parametern unterwegs ist? (irgenwie ist die Frage (fast) unnötig, aber ich will sicher gehen).
Genau das war der eigentliche Kern meiner Frage: Schneiden SuMa-Crawler bei der Indizierung die Parameter ab?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag