Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

OnePage DC unterbinden

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
12WerkGmbH
PostRank 3
PostRank 3
Beiträge: 93
Registriert: 01.03.2010, 21:54
Wohnort: München

Beitrag von 12WerkGmbH » 04.02.2013, 15:31

Hallo zusammen,

einige Zielseiten in unserem Shop sind über zwei URLs erreichbar.

xyshop.de/toller_artikel_billig
xyshop.de/index?artid=12

Der Generator für die generischen Urls ist ein Dinosaurier, daher suchen wir eine einfachere Lösung.

Die URLs alle betroffenen Artikel sind bekannt. Man könnte diese nun einfach in die robot txt packen.

Hat jemand mit diesem Schritt schon Erfahrungen?
Ist das als QuicknDirty-Lösung akzeptabel?

Sind ca. 600 URLs.

Danke für eure Antworten.

BG

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Stelufl
PostRank 4
PostRank 4
Beiträge: 165
Registriert: 01.02.2011, 10:09

Beitrag von Stelufl » 04.02.2013, 15:38

Die URLs, die als "richtige URL" verwendet werden sollen, machst du zur canonical URL. Lies dich mal ein zum Thema "canonical". Das sollte laut google schon reichen!
Zusätzlich dazu kannst du in den google webmaster tools google verbieten, urls mit dem parameter xyz zu crawlen, also z. B. artid -> NO URLS. Das ist die bessere Variante als robots.txt.

Sieht dann ungefähr so aus:
Klick mich
Zuletzt geändert von Stelufl am 04.02.2013, 15:47, insgesamt 3-mal geändert.

luisekuschinski
PostRank 6
PostRank 6
Beiträge: 454
Registriert: 20.01.2009, 16:31
Wohnort: Nordsee u. Morro Jable

Beitrag von luisekuschinski » 04.02.2013, 15:38

Oder alle mit "?artid" sperren...
Kredite und sonst garnichts!

Ruf mich an, ich flüstere dir geile Sauereien ins Ohr!
37 Euro/Min., auch mit Kloppe, Tiere gratis!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


12WerkGmbH
PostRank 3
PostRank 3
Beiträge: 93
Registriert: 01.03.2010, 21:54
Wohnort: München

Beitrag von 12WerkGmbH » 04.02.2013, 15:40

Haben wir auch schon überlegt. Die URLs mit der ?artid fließen in die Sitemap. Daher geht das nicht.

Stelufl
PostRank 4
PostRank 4
Beiträge: 165
Registriert: 01.02.2011, 10:09

Beitrag von Stelufl » 04.02.2013, 15:44

Dann musst du die da rausholen und nur die "pretty urls" drinnen lassen.
Sehe keine andere Möglichkeit. Du brauchst ja ein Alleinstellungsmerkmal, anhand dessen du URLs selektieren kannst. Und das ist eben "artid" und nicht Produkt A: tolles_Produkt.html", Produkt B "noch_tolleres_produkt.html" etc.

Stelufl
PostRank 4
PostRank 4
Beiträge: 165
Registriert: 01.02.2011, 10:09

Beitrag von Stelufl » 04.02.2013, 15:53

Robots.txt sind eher weniger geeignet. Sollten nämlich andere Websites einen backlink auf die artid URL setzen, geht google dieser Seite trotzdem nach und indexiert sie auch, obwohl in robots.txt ausgeschlossen! Vgl. https://support.google.com/webmasters/b ... wer=156449

Also entweder optionalerweise das noindex Attribut setzen UND den canonical tag, ODER kein noindex attribut, aber canonical tag ODER URL Parameter ausschließen und optionalerweise canonical tag (wenn es keine weitere url mit identischen content gibt)

Hoffe ich bin jetzt nicht durcheinander gekommen :lol:

Antworten