Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Warum Zugriff auf css in robots.txt verweigern?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Weitdenker
PostRank 1
PostRank 1
Beiträge: 9
Registriert: 12.04.2010, 17:05

Beitrag von Weitdenker » 26.05.2010, 15:35

Oft sehe ich, dass der CSS-Ordner einer Website für
Crawler verboten wird. Warum das Ganze?

User-agent: *
Disallow: /css/

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Tracker
PostRank 3
PostRank 3
Beiträge: 68
Registriert: 13.04.2010, 21:46

Beitrag von Tracker » 26.05.2010, 15:53

Weil es keinen sinn macht und evtl traffic spart
Ich darf das fragen ich bin ein DAU
https://fast-food.blog.de

Andreas I.
PostRank 9
PostRank 9
Beiträge: 1464
Registriert: 18.03.2006, 14:36
Wohnort: Hamburg

Beitrag von Andreas I. » 26.05.2010, 15:54

Es wird gehofft, dass der Crawler dann nicht hinter die Tricks kommt, Text mit den bekannten Möglichkeiten von css zu verstecken.

Eigentlich ist das eher so eine Art Schuldeingeständnis. Wenn das ein Quality-Rater sieht...

Antworten