Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

alte URLS löschen mit robots.txt?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 24.05.2006, 15:47

hallo leute,

google hat gut 4.000 seiten indiziert. rund 3.800 sind jedoch seiten bzw. urls in dieser form:
index.php?open=details&id=40&vertrag=114&vid=2&PHPSESSID=de5d53da9e970081bbac1ea073e979a1

die gibt es aber gar nicht mehr! klickt man darauf, landet man zum glück nicht auf einer 404 sondern auf der startseite der domain.

nun möchte ich der übersichtlichkeit halber diese urls rausschmeißen. habe versucht das mit dem automatischen lösch-tool von google zu machen. der sagt mir dann aber, "die seite scheint noch zu existieren".

wie kriege ich am elegantesten bzw. besten die ganzen alten urls raus?

kann man in eine robot.txt auch etwas in der art index.php?open=* implementieren?