heute Nacht wurde mal wieder eine meiner Seiten komplett gegrabbt. Langsam wird mir das echt zu blöd und ich überlege seit längerem eine Grabber und Agressive Spider Falle zu bauen. Vielleicht hat ja schon jemand so etwas programmiert, dan kann ich mir die ganze Arbeit spaaren. Oder es hat jemand Interesse mitzuwirken. Wie folgt stelle ich mir das vor:
Bei jedem Seitenaufruf wird die IP in eine Datenbank geschrieben und es wird überprüft wie oft die IP innerhalb der letzten 5 Minuten auf den Server zugegriffen hat. Wenn die IP weniger als XX Zugriffe produziert hat wird der Zugriff erlaubt, ansonsten wandert die IP in eine Blacklist falls sie nicht in einer Whitelist steht.
Ich denke mal das große Suchmaschinen ja mit ganzen IP-Blöcken auftreten und somit ja nie in eine solche Falle treten. Grabber jedoch tun dies in der Regel mit einer IP und greifen enorm schnell die Seiten ab und man könnte diesem abnormen Surfverhalten schon nach 50 oder 100 PI's einen Riegel vorschieben.
Kommentare und Quelltexte erwünscht
