Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Man könnte auf den User Agent und bekannte IP-Netze filtern. 100 Prozent wird man wohl nicht erreichen.mcchaos hat geschrieben:Gute Idee. Kann man sich drauf verlassen, das der googlebot sich immer meldet und nicht auch mal als InternetExplorer vorbeischaut?
Da hilft dann nur eine htaccess-Datei.mcchaos hat geschrieben:Ein Problem ist halt, wenn man verlinkt wird (was man wohl nicht vermeiden kann), ist man vermutlich - trotz leerer Seiten - in Google unter dem Linktext zu finden.
D.h. per htaccess checken, ob UserAgent ein Bot ist und dann auf eine leere Seiten rewriten?overflood hat geschrieben:man muss sich ja nicht schlecht machen, man kann die bots doch per htaccess aussperren, das wäre wohl die sinnvollste variante, not?
kommt wohl nur htaccess in frage :-/Ein Problem ist halt, wenn man verlinkt wird (was man wohl nicht vermeiden kann), ist man vermutlich - trotz leerer Seiten - in Google unter dem Linktext zu finden.
Mit der htaccess kann man ja vieles machen: Was genau meinst Du? Man kann z.B. Bots auf ne leere Seite umleiten, man könnte aber auch immer eine 401 senden - und hoffen, dass die Bots die Seite dann nicht aufnehmen.overflood hat geschrieben:kommt wohl nur htaccess in frage :-/
Es geht darum, dass *möglichst* nur Leute auf die Seiten kommen, die die URL genau kennen. Das ist natürlich kein 100%iger Schutz, soll auch keiner sein, dafür braucht man eben Passwörterdepp ich hat geschrieben:Hallo!
Da stellt sich mal die Frage: Dürfen die Seiten vom Bot nicht gefunden werden oder sollen sie nur in den SERPs nicht auftauchen? Und: wer kontrolliert das?
Ok, nur was soll "gesperrt" heißen? Leere Seite anzeigen? 401 schicken? Gar nichts schicken (geht das)?SloMo hat geschrieben: Möglicherweise eine Bot-Trap, damit unfreundliche SuMas automatisch per IP gesperrt werden.