Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

alte URLS löschen mit robots.txt?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 24.05.2006, 15:47

hallo leute,

google hat gut 4.000 seiten indiziert. rund 3.800 sind jedoch seiten bzw. urls in dieser form:
index.php?open=details&id=40&vertrag=114&vid=2&PHPSESSID=de5d53da9e970081bbac1ea073e979a1

die gibt es aber gar nicht mehr! klickt man darauf, landet man zum glück nicht auf einer 404 sondern auf der startseite der domain.

nun möchte ich der übersichtlichkeit halber diese urls rausschmeißen. habe versucht das mit dem automatischen lösch-tool von google zu machen. der sagt mir dann aber, "die seite scheint noch zu existieren".

wie kriege ich am elegantesten bzw. besten die ganzen alten urls raus?

kann man in eine robot.txt auch etwas in der art index.php?open=* implementieren?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


PrometheusX
PostRank 4
PostRank 4
Beiträge: 101
Registriert: 02.04.2006, 17:03

Beitrag von PrometheusX » 24.05.2006, 18:39

301 Code setzen statt direkt auf die Hauptseite umzuleiten.

eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 25.05.2006, 10:11

würde aber bedeuten, dass besucher eine 301 zu sehen bekommen! das wäre wohl eher nicht die beste lösung, oder?

Cayman
PostRank 2
PostRank 2
Beiträge: 61
Registriert: 27.09.2005, 10:12

Beitrag von Cayman » 25.05.2006, 12:59

eanst hat geschrieben:index.php?open=details&id=40&vertrag=114&vid=2&PHPSESSID=de5d53da9e970081bbac1ea073e979a1
Kann man anhand der URL ein Kriterium festlegen nach dem die Seiten raus können? Also, z.B. können alle Seiten die PHPSESSID o.ä. enthalten raus?
Wenn ja, musst Du diese Kriterium in die robots.txt mit aufnehmen und danach die robots.txt an die urlconsole melden.
Vorsicht: Man kann hierbei aber eine Menge Fehler machen.

Andy.C
PostRank 5
PostRank 5
Beiträge: 249
Registriert: 22.03.2005, 04:01
Wohnort: Berlin

Beitrag von Andy.C » 25.05.2006, 13:46

eanst hat geschrieben:würde aber bedeuten, dass besucher eine 301 zu sehen bekommen! das wäre wohl eher nicht die beste lösung, oder?
Ist nur vorrübergehend, da Google die Seiten auch wieder entfernt wenn der mitbekommt dass sie nicht mehr Existieren. Also 1 Monat bis 6 Wochen sind noch verkraftbar. Bei mir ging dass das letzte malrecht Schnell, nach nur 2 Wochen ;)

eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 26.05.2006, 15:41

naja.. danke euch für die infos..
werde mal schaun wie ichs mach.

max. 6wochen die pot. besucher auf fehlerseiten weiterleiten finde ich jedoch keinesfalls vertretbar. :roll:

trotzdem danke!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag