Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Alle alten URLs aus dem index entfernen?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 17.09.2006, 09:22

hallo leute,

google hat immernoch (nach gut 1,5 Jahre) rund 1.000 alte urls von meiner seite im index. wenn man auf eine dieser alten urls in den ergebnislisten von google klickt, landet man dann auf meiner startseite.

mit der url löschen konsole kann man ja immer nur eine url löschen. deswégen meine frage. wie kriege ich die rund 1.000 urls in der form:
www.meineseite.de/index.php?open=VARIAB ... 8643513685

sind, aus dem index raus?

wobei die VARIABLE-1 bis VARIABLE-3 natürlich variable sind.


VIELEN DANK FÜR EURE HILFE!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

haha
PostRank 9
PostRank 9
Beiträge: 1065
Registriert: 03.04.2006, 18:08
Wohnort: Bi Hamborg

Beitrag von haha » 17.09.2006, 10:31

eanst hat geschrieben:google hat immernoch (nach gut 1,5 Jahre) rund 1.000 alte urls von meiner seite im index. wenn man auf eine dieser alten urls in den ergebnislisten von google klickt, landet man dann auf meiner startseite.
Wenn man beim Aufruf einer nicht existierenden URL auf Deiner Startseite landet, dann hast Du offenbar eine Weiterleitung eingebaut. Wenn Du aber ständig "Seite ist umgezogen" meldest statt "Seite gibt's nicht (mehr)", ist es kein Wunder, dass die alten URLs nicht aus den Suchmaschinen verschwinden.

Nimm' die Weiterleitung raus und ersetze sie durch eine 404- oder 410-Fehlermeldung, dann klappt das auch. (Befasse Dich beim Einsatz des Apache-Webservers genau mit der Funktionsweise von ErrorDocument.)

Falls es trotzdem nicht funktioniert, solltest Du Deine betreffenden Webserver-Einstellungen und eine Beispiel-URL angeben. Mit der URL-Konsole wirst Du unter den vermuteten Umständen jedenfalls nicht weiterkommen.

eanst
PostRank 4
PostRank 4
Beiträge: 138
Registriert: 29.11.2005, 11:36

Beitrag von eanst » 17.09.2006, 15:27

kann ich evtl. auch einfach mit der robot.txt arbeiten? wenn ja, wie?

wie kann man mit der robot.txt mehrere ähnliche urls definieren. so wie in meinem ertsen beitrag definiert...