Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

wie bekommt man URLs mit parameter aus dem Index

Mehrere Domains, Domain-Umzug, neue Dateinamen, 301/302
Neues Thema Antworten
piou
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 27.06.2007, 17:52
Wohnort: Österreich

Beitrag von piou » 15.08.2010, 13:14

Hallo,

mein Problem ist, dass ich in den WMT viele urls mit doppelter meta Beschreibung habe. Diese urls unterscheiden sich nur durch einen Parameter, z.b. language=

nun landen solche urls leider auch im Index was natürlich DC erzeugt.
( geprüft durch: site:www.domain.com inurl:language )

all dies passiert obwohl:

* die seiten den canonical tag OHNE die parameter im source hat
* die parameter in den WMT bei Parameterbehandlung auf IGNORIEREN sind
* die urls ohne parameter in der xml-sitemap stehen

wie bekomme ich nun diese parameter-urls aus dem index?

würde ein redirect was bringen? oder würde dieser mehr schaden anrichten? (nat. existieren auch backlinks mit parametern)

kann was per robots.txt gemacht werden?

gruss

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 15.08.2010, 14:12

wie bekomme ich nun diese parameter-urls aus dem index?

würde ein redirect was bringen? oder würde dieser mehr schaden anrichten? (nat. existieren auch backlinks mit parametern)

kann was per robots.txt gemacht werden?
zu 1: Über 2 und/oder 3, und danach über Geduld, denn die parametisierten URLs müssen auch wieder von'm Bot gespidert werden, um rauszufliegen.

zu 2.: Sofern der Inhalt mit Parametern der Gleiche ist wie ohne, dann natürlich per Mpd-Rewrite und HTTP Status Code 301 die Parameter kicken.

zu 3.: Bei Google hilft bei mir tatsächlich auch eine intelligente Robots.txt, um Parameter aus dem Index zu halten. Bei anderen SuMas ist man hier eingeschränkt.

piou
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 27.06.2007, 17:52
Wohnort: Österreich

Beitrag von piou » 15.08.2010, 16:32

hi chris21,

danke für deine antwort!
zu 1: Über 2 und/oder 3, und danach über Geduld, denn die parametisierten URLs müssen auch wieder von'm Bot gespidert werden, um rauszufliegen.
meinst du hier über redirect und robots.txt
zu 2.: Sofern der Inhalt mit Parametern der Gleiche ist wie ohne, dann natürlich per Mpd-Rewrite und HTTP Status Code 301 die Parameter kicken.
aber was passiert mit den backlinks mit parametern falls diese per 301 weitergeleitet werden? werden die von G dennoch gezählt?
zu 3.: Bei Google hilft bei mir tatsächlich auch eine intelligente Robots.txt, um Parameter aus dem Index zu halten. Bei anderen SuMas ist man hier eingeschränkt.
was ist eine intelligente robots.txt?
kann man in der robots.txt mittlerweile wildcards benutzten?

z.b. Disallow: /folder/*?language=