Wie ganzen Seiten sperren?
Verfasst: 18.02.2007, 21:07
Hallo,
ich habe mal eine kurze Frage. Das Thema ist schon unzählige Male im Forum angesprochen worden, aber ich konnte nichts entsprechendes finden...
Bei meiner Seite tauchen immer wieder Seiten im Index auf, die ich gerne sperren würde. Es sind die einzelnen HTML-Seiten, die normalerweise eingebunden werden und z.B. als https://www.beispiel.de/index.php?page=kontakt auftauchen. Die einzelne Seite https://www.beispiel.de/kontakt.html soll nicht im Index auftauchen...
Wie sperre ich jetzt nur besagte Seiten in der robots.txt?
Disallow: /kontakt.html
Disallow: https://www.beispiel.de/kontakt.html
Disallow: /https://www.beispiel.de/kontakt.html
Wenn ich die erste Variante nehme, wird die Datei doch überhaupt nicht mehr angezeigt, dann soll man keine ganzen Urls in der robots.txt abgeben, und die Dritte Möglichkeit sieht irgendwie blöd aus...
Weiß jemad einen Rat?
Grüße
Gretus
ich habe mal eine kurze Frage. Das Thema ist schon unzählige Male im Forum angesprochen worden, aber ich konnte nichts entsprechendes finden...
Bei meiner Seite tauchen immer wieder Seiten im Index auf, die ich gerne sperren würde. Es sind die einzelnen HTML-Seiten, die normalerweise eingebunden werden und z.B. als https://www.beispiel.de/index.php?page=kontakt auftauchen. Die einzelne Seite https://www.beispiel.de/kontakt.html soll nicht im Index auftauchen...
Wie sperre ich jetzt nur besagte Seiten in der robots.txt?
Disallow: /kontakt.html
Disallow: https://www.beispiel.de/kontakt.html
Disallow: /https://www.beispiel.de/kontakt.html
Wenn ich die erste Variante nehme, wird die Datei doch überhaupt nicht mehr angezeigt, dann soll man keine ganzen Urls in der robots.txt abgeben, und die Dritte Möglichkeit sieht irgendwie blöd aus...
Weiß jemad einen Rat?
Grüße
Gretus