Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wie ganzen Seiten sperren?

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
Gretus
PostRank 10
PostRank 10
Beiträge: 3205
Registriert: 15.07.2006, 11:49
Wohnort: Norden

Beitrag von Gretus » 18.02.2007, 21:07

Hallo,

ich habe mal eine kurze Frage. Das Thema ist schon unzählige Male im Forum angesprochen worden, aber ich konnte nichts entsprechendes finden...

Bei meiner Seite tauchen immer wieder Seiten im Index auf, die ich gerne sperren würde. Es sind die einzelnen HTML-Seiten, die normalerweise eingebunden werden und z.B. als https://www.beispiel.de/index.php?page=kontakt auftauchen. Die einzelne Seite https://www.beispiel.de/kontakt.html soll nicht im Index auftauchen...

Wie sperre ich jetzt nur besagte Seiten in der robots.txt?

Disallow: /kontakt.html
Disallow: https://www.beispiel.de/kontakt.html
Disallow: /https://www.beispiel.de/kontakt.html

Wenn ich die erste Variante nehme, wird die Datei doch überhaupt nicht mehr angezeigt, dann soll man keine ganzen Urls in der robots.txt abgeben, und die Dritte Möglichkeit sieht irgendwie blöd aus...

Weiß jemad einen Rat?

Grüße

Gretus