Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

robots.txt Frage

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Stefan26
PostRank 4
PostRank 4
Beiträge: 104
Registriert: 02.05.2010, 23:41

Beitrag von Stefan26 » 25.06.2011, 08:41

Ist es möglich mittels Disallow: /download/ prinzipiell den Zugriff auf das Verzeichnis für seriöse Spider zu sperren, jedoch gleichzeitig Googlebot den Zugriff auf spezielle im Verzeichnis liegende URLs mittels Allow: /download/file.php?avatar=* zu gestatten? Danke!