Seite 1 von 1

Warum Zugriff auf css in robots.txt verweigern?

Verfasst: 26.05.2010, 15:35
von Weitdenker
Oft sehe ich, dass der CSS-Ordner einer Website für
Crawler verboten wird. Warum das Ganze?

User-agent: *
Disallow: /css/

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 26.05.2010, 15:53
von Tracker
Weil es keinen sinn macht und evtl traffic spart

Verfasst: 26.05.2010, 15:54
von Andreas I.
Es wird gehofft, dass der Crawler dann nicht hinter die Tricks kommt, Text mit den bekannten Möglichkeiten von css zu verstecken.

Eigentlich ist das eher so eine Art Schuldeingeständnis. Wenn das ein Quality-Rater sieht...