Parameter per robots.txt aussperren?
Verfasst: 28.07.2010, 12:16
Hi,
ich verwende Joomla mit suchmaschinenfreundlichen URLs und bin bisher eigentlich ganz gut damit gefahren. Leider habe ich heute in den Webmastertools gesehen, daß bestimmte Seiten aus einem Nachrichten-Blog mehrfach indexiert wurden, was doppelte Titel etc. zur Folge hat.
Die URLs bestehen dabei alle aus der Kategorie und einem angehängten Fragezeichen, also so:
/nachrichten?=10pirgendwas
Die seofreundliche URL ist /nachrichten - ohne Fragezeichen oder sonstwas.
Die Frage ist also:
Kann ich einfach ein
"Disallow /nachrichten?" in die robots.txt schreiben, so daß diese URLs rausfallen?
Oder empfiehlt sich eine Weiterleitung jeder URL per htaccess auf die /nachrichten ?
Danke im Voraus für Tipps
Gruß
Mario
ich verwende Joomla mit suchmaschinenfreundlichen URLs und bin bisher eigentlich ganz gut damit gefahren. Leider habe ich heute in den Webmastertools gesehen, daß bestimmte Seiten aus einem Nachrichten-Blog mehrfach indexiert wurden, was doppelte Titel etc. zur Folge hat.
Die URLs bestehen dabei alle aus der Kategorie und einem angehängten Fragezeichen, also so:
/nachrichten?=10pirgendwas
Die seofreundliche URL ist /nachrichten - ohne Fragezeichen oder sonstwas.
Die Frage ist also:
Kann ich einfach ein
"Disallow /nachrichten?" in die robots.txt schreiben, so daß diese URLs rausfallen?
Oder empfiehlt sich eine Weiterleitung jeder URL per htaccess auf die /nachrichten ?
Danke im Voraus für Tipps

Gruß
Mario