Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Suche Identifizierungsmerkmale aktueller Content Grabber
Reihe merkwuerdiger Bots - welche kann man unbesorgt sperren
Die Einträge in der robots.txt lassen sich auch in Abschnitte für einzelne Robots aufteilen. Du benötigst lediglich einen Abschnitt namens "Googlebot", in dem Du Deine Wünsche Google mitteilst, und einen allgemeinen Abschnitt, in dem Du alle Seiten sperrst. Wie das geht, ist sowohl in der Anleitung für das robots.txt-Format beschrieben als auch auf Deutsch bei Google.verwirrt hat geschrieben:Ich möchte, dass nur der Googlebot eine Unterseite indexiert und die darauf vorhandenen Links erfasst. Yahoo, MSN und andere sollen die Seite nicht spidern