Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

alte Seiten aus Google entfernen mit robots.txt

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Steffi
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 06.12.2004, 03:43

Beitrag von Steffi » 04.07.2005, 21:03

Hallo Leute,

mal ne Frage, habe vor langer Zeit alle Urls mit mod_rewrite sumafreundlich gemacht. Wird auch alles wunderbar eingelesen, nur sind halt immer noch die alten "Urlxx?=xx" im Google Index.

Laut Google kann man folgendes machen:

User-agent: Googlebot
Disallow: /*?

Das soll ja dyn. Seiten entfernen, hat jemand das schon mal probiert?

Danke!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 04.07.2005, 21:12

Das Problem an der Sache ist, dass die URL Console den Parameter *? nicht akzeptiert. War zumindest vor einem Monat noch so.

Ergo wirst Du warten müssen, bis sie auf "normalem" Wege rausfliegen.

In der robots.txt wird der Parameter aber befolgt.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag