URL je nach Parametern in der Robots.txt ausschliessen
Verfasst: 27.09.2006, 16:49
Hallo zusammen,
habe eine Frage zur Robots.txt, die ich bisher nicht beantwortet finden konnte. Wenn ich eine URL habe, die folgendermaßen aussieht:
https://www.beispiel.de/index.php
und über diese URL nun verschiedene Seiten aufrufe
z.B.
https://www.beispiel.de/index.php?cat=foo
https://www.beispiel.de/index.php?cat=foo2
Wie kann ich es erreichen, dass durch Google nur bestimmte Seiten gespidert werden. Wenn ich z.B. nur die URL
https://www.beispiel.de/index.php
und sonst keine im Index sehen möchte, wie sieht dann der Eintrag aus?
Gibt es eine Möglichkeit bereits gespiderte Seiten relativ schnell aus dem Google Index zu entfernen, ohne die Seite herunterzunehmen?
1000 Dank und Grüße!
habe eine Frage zur Robots.txt, die ich bisher nicht beantwortet finden konnte. Wenn ich eine URL habe, die folgendermaßen aussieht:
https://www.beispiel.de/index.php
und über diese URL nun verschiedene Seiten aufrufe
z.B.
https://www.beispiel.de/index.php?cat=foo
https://www.beispiel.de/index.php?cat=foo2
Wie kann ich es erreichen, dass durch Google nur bestimmte Seiten gespidert werden. Wenn ich z.B. nur die URL
https://www.beispiel.de/index.php
und sonst keine im Index sehen möchte, wie sieht dann der Eintrag aus?
Gibt es eine Möglichkeit bereits gespiderte Seiten relativ schnell aus dem Google Index zu entfernen, ohne die Seite herunterzunehmen?
1000 Dank und Grüße!