Seite 1 von 1
Warum Zugriff auf css in robots.txt verweigern?
Verfasst: 26.05.2010, 15:35
von Weitdenker
Oft sehe ich, dass der CSS-Ordner einer Website für
Crawler verboten wird. Warum das Ganze?
User-agent: *
Disallow: /css/
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 26.05.2010, 15:53
von Tracker
Weil es keinen sinn macht und evtl traffic spart
Verfasst: 26.05.2010, 15:54
von Andreas I.
Es wird gehofft, dass der Crawler dann nicht hinter die Tricks kommt, Text mit den bekannten Möglichkeiten von css zu verstecken.
Eigentlich ist das eher so eine Art Schuldeingeständnis. Wenn das ein Quality-Rater sieht...