Seite 1 von 1

alte Seiten aus Google entfernen mit robots.txt

Verfasst: 04.07.2005, 21:03
von Steffi
Hallo Leute,

mal ne Frage, habe vor langer Zeit alle Urls mit mod_rewrite sumafreundlich gemacht. Wird auch alles wunderbar eingelesen, nur sind halt immer noch die alten "Urlxx?=xx" im Google Index.

Laut Google kann man folgendes machen:

User-agent: Googlebot
Disallow: /*?

Das soll ja dyn. Seiten entfernen, hat jemand das schon mal probiert?

Danke!

Verfasst:
von

alte Seiten aus Google entfernen mit robots.txt

Verfasst: 04.07.2005, 21:12
von Chris2005
Das Problem an der Sache ist, dass die URL Console den Parameter *? nicht akzeptiert. War zumindest vor einem Monat noch so.

Ergo wirst Du warten müssen, bis sie auf "normalem" Wege rausfliegen.

In der robots.txt wird der Parameter aber befolgt.