Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Wozu robots.txt UND noindex? Wenn man Kategorie- und Tag-Seiten sperrt, dann bitte immer mit noindex,follow und auf keinen Fall per robots.txt. Sonst macht man sich nämlich die crawlbarkeit/interne Navigation kaputt.holgi74 hat geschrieben:[s]perre Seiten die DC haben mit Hilfe robots.txt und noindex
Gesunder Menschenverstand sollte ausreichend sein um internen DC zu erkennen.surf4all hat geschrieben:kann man diesen auch Prüfen?