Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Robots.txt für Besucher sperren

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Waldeule
PostRank 3
PostRank 3
Beiträge: 76
Registriert: 27.11.2003, 20:13

Beitrag von Waldeule » 30.11.2003, 16:28

Hallo!

Ich würde gerne den Zugriff auf meine robots.txt für die Besucher meiner
Seite sperren. Ist das per htaccess möglich, so dass die Suchmaschinen-Spider die robots.txt noch finden, und wenn ja, wie?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Halli
PostRank 7
PostRank 7
Beiträge: 584
Registriert: 21.08.2003, 00:40
Wohnort: Hannover

Beitrag von Halli » 01.12.2003, 01:09

Waldeule,

wozu soll das denn gut sein ??? Wenn Du einzelne Unterverzeichnisse Deiner Domain gegen freie Besucherzugriffe sperren willst. o.k. das seh ich ein. Aber die robots.txt selbst ??? Ich meine, das macht keinen Sinn!
wer besoffen noch geradeaus fahren kann ist bald reif fürs www.mpu-forum.de

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 01.12.2003, 09:40

Per htaccess den Referer auswerten und eine Liste der zugelassenden Suma einbauen. Diese Regel trifft dann nur auf deine Robots.TXT zu.

Wobei man einen Referer (auch IP ) vortäuschen kann. Also wenn Jemand Deine "geschützten Bereich" sehen will macht er es.


www.webmasterworld.com/forum92/323-2-15.htm

RW

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag