Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

alte Seiten aus Google entfernen mit robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Steffi
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 06.12.2004, 03:43

Beitrag von Steffi » 04.07.2005, 21:03

Hallo Leute,

mal ne Frage, habe vor langer Zeit alle Urls mit mod_rewrite sumafreundlich gemacht. Wird auch alles wunderbar eingelesen, nur sind halt immer noch die alten "Urlxx?=xx" im Google Index.

Laut Google kann man folgendes machen:

User-agent: Googlebot
Disallow: /*?

Das soll ja dyn. Seiten entfernen, hat jemand das schon mal probiert?

Danke!