ich versuche gerade Double Content zu entfernen, der über Sortierlinks in den Listenanzeigen produziert wurde.
Beispiel:
www.xxx.de/yy/
www.xxx.de/yy/?s=H&p=1
...etc.
Hierzu habe sätmliche Sortierlinks in den Templates entfernt, die Parameter S und H in den WMT auf ignorieren eingestellt und zusätzlich die Parameterlinks in der robots.txt auf disallow gestellt.
Code: Alles auswählen
Disallow: /*?s=H&p=*

Ich frage mich nur, woher Google sich diese URL noch zieht, da sie definitiv nicht mehr online eingestellt sind und durch die robots eingeschränkt sind. Mal mehr ein Beispiel, was G von der robots hält. Werden die URL über gecachte Seiten abgefragt? Das Problem wird vermutlich dabei sein, dass diese ParameterURL weiterhin über das Script ausgegeben werden und angesteuert werden können.
Meine Frage nun:
Ist eine Entfernung dieses Codes im Script sinnvoller, um zu diesen ParameterURL eine 404-Meldung auszugeben oder leite ich diese lieber per 301 weiter?
www.xxx.de/yy/?s=H&p=1 ==auf==> www.xxx.de/yy/
www.xxx.de/zz/?s=H&p=1 ==auf==> www.xxx.de/zz/
Oder wird sich das irgendwann sowieso in Wohlgefallen auflösen.