alte Seiten aus Google entfernen mit robots.txt
Verfasst: 04.07.2005, 21:03
Hallo Leute,
mal ne Frage, habe vor langer Zeit alle Urls mit mod_rewrite sumafreundlich gemacht. Wird auch alles wunderbar eingelesen, nur sind halt immer noch die alten "Urlxx?=xx" im Google Index.
Laut Google kann man folgendes machen:
User-agent: Googlebot
Disallow: /*?
Das soll ja dyn. Seiten entfernen, hat jemand das schon mal probiert?
Danke!
mal ne Frage, habe vor langer Zeit alle Urls mit mod_rewrite sumafreundlich gemacht. Wird auch alles wunderbar eingelesen, nur sind halt immer noch die alten "Urlxx?=xx" im Google Index.
Laut Google kann man folgendes machen:
User-agent: Googlebot
Disallow: /*?
Das soll ja dyn. Seiten entfernen, hat jemand das schon mal probiert?
Danke!