Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Download von Websites erkennen und verhindern?

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 12.08.2006, 17:11

Ihr kennt ja alle diese Tools wie wget, getright usw. um sich Websites komplett herunterzuladen.

Was tut ihr dagegen? Ein UA Check hilft nur solange bis der Sauger seinen UA auf einen 0815 Browser aendert.

Wie also kann man den Download von Websites erkennen und verhindern?

Gibt es hierfuer schon fertige und freie Tools (gefunden habe ich nix), oder muss auch dieses Rad wieder quasi neu erfunden werden?

Wie koennte man sowas erkennen? Z.B. pro IP in einer Session sammeln bzw. merken wieviele Seiten innerhalb welcher Zeit aufgerufen wurde und wenn das Verhaeltnis nimmer stimmt, sperren?
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service