Seite 1 von 1

Warum Zugriff auf css in robots.txt verweigern?

Verfasst: 26.05.2010, 15:35
von Weitdenker
Oft sehe ich, dass der CSS-Ordner einer Website für
Crawler verboten wird. Warum das Ganze?

User-agent: *
Disallow: /css/

Verfasst:
von

Verfasst: 26.05.2010, 15:53
von Tracker
Weil es keinen sinn macht und evtl traffic spart

Verfasst: 26.05.2010, 15:54
von Andreas I.
Es wird gehofft, dass der Crawler dann nicht hinter die Tricks kommt, Text mit den bekannten Möglichkeiten von css zu verstecken.

Eigentlich ist das eher so eine Art Schuldeingeständnis. Wenn das ein Quality-Rater sieht...