Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URL je nach Parametern in der Robots.txt ausschliessen

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Spirit
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 29.05.2006, 09:30
Wohnort: Hamburg

Beitrag von Spirit » 27.09.2006, 16:49

Hallo zusammen,

habe eine Frage zur Robots.txt, die ich bisher nicht beantwortet finden konnte. Wenn ich eine URL habe, die folgendermaßen aussieht:

https://www.beispiel.de/index.php

und über diese URL nun verschiedene Seiten aufrufe

z.B.

https://www.beispiel.de/index.php?cat=foo
https://www.beispiel.de/index.php?cat=foo2

Wie kann ich es erreichen, dass durch Google nur bestimmte Seiten gespidert werden. Wenn ich z.B. nur die URL
https://www.beispiel.de/index.php
und sonst keine im Index sehen möchte, wie sieht dann der Eintrag aus?

Gibt es eine Möglichkeit bereits gespiderte Seiten relativ schnell aus dem Google Index zu entfernen, ohne die Seite herunterzunehmen?

1000 Dank und Grüße!