Seite 1 von 1

Duplicate Content, Doorway-Pages und Affiliate-ID in URL

Verfasst: 28.03.2007, 12:52
von jackdaniels112
Vor ca. 3 Wochen ist unsere Website mit zahlreichen Keywords in den Serps verschwunden oder auf die hinteren Plätze verwiesen worden.
Wir haben folgende SEO-Maßnahmen zuvor über Jahre ergriffen:

1. Statische HTML-Seiten für jedes Produktangebot erstellt und auf dem Shopserver für die Bots abgelegt. Auf jeder Produktseite erfolgt ein Link auf das entsprechende Angebot in das Shopsystem.
Dadurch konnten die Bots unsere Angebote besser finden.
Jetzt werden zum Teil diese HTML-Produktangebote nicht mehr gelistet.

2.Redaktionell aufbereitete HTML-Landing-Pages mit produktaffinen Beschreibungen für einige generische Keywords. Auch diese LandingPages wurden zum Teil abgestraft.

Folgende SEO-Probleme haben wir:
1. die oben ergriffenen SEO-Maßnahmen greifen nicht mehr.
2. Auf Produktangebotsseiten im Shopsystem, welche dynamisch erstellt werden, verlinken zahlreiche Affiliates. Die Affiliate-ID wird von den Bots mit ausgelesen und für unseren Shop in den Serps angezeigt. Das ist nicht optimal, da so die Affiliates eine Provision erhalten, wenn Kunden über unsere Suchergebnisse in den Shop gelangen. Außerdem entsteht DC, da die Produktangebotsseiten so mehrfach im Shop vorhanden sind - Nur mit unterschiedlichen Affiliate-IDs in der URL.
3. Wir bieten unseren Shop auch für andere Händler an. Deren Domain-IP-Auflösung erfolgt direkt auf unseren Shopserver, so dass der Content unter mehrere Domains bei den Suchmaschinen gelistet ist. Des Weiteren werden auch Angebote von uns unter den Domains der anderen Subhändlern aufgeführt.

Ich freue mich auf eure Optimierungsvorschläge!

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 28.03.2007, 13:02
von Mamboo
Hallo jackdaniels,

Das hört sich wirklich nach DC an. Google hat seiner DC-Richtlinien auf Google-Blog veröffentlicht. Du findest sie auf Deutsch + weitere nützlicher Tipps gegen DC auf der folgenden Seite.

https://www.art2digital.com/new-media/s ... ntent.html

Und was punkt 2 angeht, kommt es ganz drauf an, welche Affiliates auf dich verlinken. Es ist bekannt, das manches davon URL-Hijacking verursachen können.

Schau dir am besten die folgende Seite an. Da findest du im Bezug zu deiner fragen bestimmt ein paar Antworten oder benutze auch Abakus-Suche.

https://www.art2digital.com/new-media/s ... rials.html

Viel Erfolg

Verfasst: 28.03.2007, 13:02
von ole1210
Stell doch mal Fragen, dann bekommst du ganz sicher Antworten.

Erstmal solltest du dich bemühen, das du die bereits erkannten Probleme beseitigst!

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 28.03.2007, 13:43
von buttheads
Das die Doorway nicht mehr funktionieren, darauf solltet Ihr Euch eingestellt haben.

Zu dem DC über affiliates: richte doch den Shop ein zweites mal ein unter einer Subdomain und blocke da über robots.txt. die Bots. (https://partner.meinshop.de/) ... hier kannst du dann fröhlich partnerIDs vergeben und DC erzeugen, sollte Dich für dein Hauptprojekt nicht stören.

Wenn Du Deinen Content an Andere anbietest, erzeugst Du DC und kannst da nix machen - oder du sagst Deinen anderen Partnern, das sie die Bots aussperren müssen, ... oder Dir ist Google egal und du sperrst den Bot ganz aus, die Partner werden schon Umsätze gnerieren.

Grundsätzlich würde ich die Struktur und den Aufbau Eures Affiliate Systems überprüfen und auch die Struktur der Partnershops überdenken, wenn Du keinen DC zu deinem eigenen Shop erzeugen willst. Das aktuelle System hatte ja funktioniert, scheint jetzt aber nicht mer zeitgemäß zu sein.

Verfasst: 28.03.2007, 14:04
von ole1210
@ buttheads:
Wo sieht du denn DWPs? Ich sehe da keine!

Verfasst: 28.03.2007, 17:05
von buttheads
Statische HTML-Seiten für jedes Produktangebot erstellt und auf dem Shopserver für die Bots abgelegt. Auf jeder Produktseite erfolgt ein Link auf das entsprechende Angebot in das Shopsystem.
Dadurch konnten die Bots unsere Angebote besser finden.
Hatte den Hinweis "Für die Bots" als "Nur für die Bots" interpretiert ... also Cloaking und/oder DWs - natürlich kann ich da was falsch verstanden haben ...
Ansonsten erstellt man Seiten doch für den User ...?!

Bots

Verfasst: 28.03.2007, 18:08
von jackdaniels112
buttheads hat geschrieben:
Statische HTML-Seiten für jedes Produktangebot erstellt und auf dem Shopserver für die Bots abgelegt. Auf jeder Produktseite erfolgt ein Link auf das entsprechende Angebot in das Shopsystem.
Dadurch konnten die Bots unsere Angebote besser finden.
Hatte den Hinweis "Für die Bots" als "Nur für die Bots" interpretiert ... also Cloaking und/oder DWs - natürlich kann ich da was falsch verstanden haben ...
Ansonsten erstellt man Seiten doch für den User ...?!
Die Angebotsseiten in unserem Shop werden dynamisch über PErl und PHP angezeigt. Der Query-String ist mit zahlreichen Attributen bestückt, die sich immer wieder ändern. Daher mussten wir die Angebotsseiten auslagen und diese in statische HTML-Seiten umwandeln. Diese zeigen 1zu1 das Angebot wieder, welches auch im Shop zu sehen ist. Nur sind diese jetzt eben nicht mehr gut positioniert.
Ich möchte ganz gerne die zahlreichen Deeplinks in unser Shopsystem von unseren Affiliates nicht verlieren, da diese wesentlich zum Linkbuilding beitragen. Nur möchte ich nicht, dass die Bots die Deeplinks mit der Affiliate-ID übernehmen und dann als Suchergebnis unter unserer Shop-URL mit aufnehmen. Gibt es dafür eine Lösung?

Verfasst: 28.03.2007, 18:14
von chrizz
ich wüsste nicht, wie man es ohne weiteres schaft die IDs da rauszufiltern.
du könntest allerdings den deeplink mit partnerID per 301 umleiten und die pID also hidden form mit übergeben. aber wie man das gescheit löst.....hm...wie wärs mit ner redirect landingpage? da kannste die ID abfertigen und dann gehts weiter zu der eigentlich shopseite. die redirect page schließt du dann in der robots.txt aus und verpasst ihr ein noindex....
wäre so meine idee dazu...;)

Verfasst: 29.03.2007, 10:39
von buttheads
Gibt für manche Situationen die Möglichkeit von serverseitigem Tracking von referer OHNE affiliat-IDs. Dafür müstet Ihr dann euer Affiliate Programm und die entsprechenden Codes ändern. Kommt aber stark auf die Struktur eures Affiliat-trackings an ... wenn Ihr mit Affiliate-portalen arbeitet, die selber auch tracken, dürfte das nicht funzen.

Re: Bots

Verfasst: 30.03.2007, 12:10
von Lord_Chaos
jackdaniels112 hat geschrieben:Ich möchte ganz gerne die zahlreichen Deeplinks in unser Shopsystem von unseren Affiliates nicht verlieren, da diese wesentlich zum Linkbuilding beitragen.
wenn du dich da mal nicht irrst... diese links mit affiliate-parameter erzeugen je eine kopie deiner produktseite im google index, wirken aber nicht als schubfeder für das original deiner produktseite.
wenn nun einer deiner partner eine Kopie erzeugt, die "stärker" als das orginal ist, haste dein DC-Problem...

lösungswege gibt es hier mehrere, die entweder darauf setzen, auf SEO-Effekte zu verzichten (robots.txt ausschluss, eigene partnersubdomains...) oder technisch ein wenig tricksen. hier gibts neben der bereits genannten lösung "Parameter aus URL holen, woanders speichern und dann 301" auch noch ne lösung, die aber selten genutz wird: Tracking-ID als Textanker. (Urls mit verschienden Textankern bleiben physisch nur 1 unterschiedlicher url)

ich sehe aber noch 2 weitere probleme bei dir:

1. Du sprichst von sich ständig wechselnden Urls - ich vermute also session-ids!? deine lösung mit den doorways hat da IMO keine zukunft. denk dir lieber was anderes dafür aus... Tipp: o.g. kniff mit den Textmarken kann auch Session-IDs übergeben...

2. Deine Shoppartner. Da musst entweder für ausreichend Unterscheidungsmerkmale im Content schaffen, versuchen die mit abstand stärkste instanz der shopinhalte zu bieten oder deutlich zu machen, dass du das original bist. der beste Plan wäre, deine Shoppartner zu Quellenverweisen zu zwingen, aber das macht eben nicht jeder mit...

LC

Re: Bots

Verfasst: 30.03.2007, 16:53
von net(t)worker
jackdaniels112 hat geschrieben: Die Angebotsseiten in unserem Shop werden dynamisch über PErl und PHP angezeigt. Der Query-String ist mit zahlreichen Attributen bestückt, die sich immer wieder ändern. Daher mussten wir die Angebotsseiten auslagen und diese in statische HTML-Seiten umwandeln. Diese zeigen 1zu1 das Angebot wieder, welches auch im Shop zu sehen ist. Nur sind diese jetzt eben nicht mehr gut positioniert.
wie gut sind diese HTML Seiten denn verlinkt? Wenn dort kaum noch Linkpower ankommt, ist es kein Wunder dass sie bei Google verschwinden...

würde hier ggf. dazu raten externe deeplinks auf diese HTML Seiten zu setzen...

Re: Bots

Verfasst: 02.04.2007, 09:36
von jackdaniels112
Lord_Chaos hat geschrieben: lösungswege gibt es hier mehrere, die entweder darauf setzen, auf SEO-Effekte zu verzichten (robots.txt ausschluss, eigene partnersubdomains...) oder technisch ein wenig tricksen. hier gibts neben der bereits genannten lösung "Parameter aus URL holen, woanders speichern und dann 301" auch noch ne lösung, die aber selten genutz wird: Tracking-ID als Textanker. (Urls mit verschienden Textankern bleiben physisch nur 1 unterschiedlicher url)
LC
Die Affiliate-ID muss leider immer in der URL vorhanden sein. Was haltet Ihr von folgender Lösung: Wenn ein Bot über eine Affiliate-URL vorbeikommt, filtern wir diese heraus und setzen ein "redirect 301" auf die Original-URL. Wenn allerdings Kunden über die Affiliate-URL kommen, würde kein Redirect erfolgen, damit der Affiliate auch identifiziert werden kann. Wäre das OK?