ich habe auf meiner Seite einen großen Teil der Links auf .html Seiten umgeändert (htaccess).
Nun waren die aber alle schon google indiziert und die neuen Adressen erscheinen nicht im Index, vermutlich wegen duplicate content.
Ist es nun sinvoller, google mittels robot.tx. einfach aufzufordern dynamisch generierten Seiten aus dem Index zu schmeißen.
Oder kann man das auch mittels eines 301 (dauerhaft an anderer Stelle) die alten adressen auf die neuen virtuellen adressen umleiten.
Mit dem 301 stubse ich google ja im Grunde mit der Nase darauf, das die Adressen vermutlich keine echten statischen sind, sondern virtuelle, mit denen ich meine Seite optimier habe.
Über Tips würde ich mich sehr freuen und danke schonmal im voraus

Grüße
einherjar