Seite 1 von 1

bilder klauer

Verfasst: 20.02.2006, 21:23
von The-Plaqe
moin,

also ich habe nun schon seit geraumer zeit ein web foto-album wo ich jährlich bilder von mallorca (also der urlaubszeit) online stelle. mittlerweile haben sich dort nun schon über die jahre hinweg um die 10.000 bildchen angesammelt.

vorhin habe ich in meinen logs nachgeschaut und bemerkt dass in der zeit von 8- ca. 13 uhr ein bilderdieb sämtliche bilder vom server gezogen hat, anhand der zeit-spanne zu jedem einzelnen bild hat er es auch nicht manuell gemacht, sondern per ripper o.ä.

nun meine frage... kenn jemand von euch ein htaccess schutz oder ein nettes php script welches es unterbindet bilder in einer solch hohen masse zu stehlen (traffic!!).

hierbei spielt es für mich auch keine rolle ob eventuell google und co. die bilder auch nicht aufnehmen können, ich bedanke mich für zahlreiche hinweise und tipps zu dieser problematik.

gruss plaqe

Verfasst:
von

bilder klauer

Verfasst: 20.02.2006, 22:29
von MonikaTS

bilder klauer

Verfasst: 21.02.2006, 02:00
von The-Plaqe
jo thx

soll dass auch gegen solche ripepr programme helfen ?

oder gilft dass nur wenn jemand extern auf einer anderen seite von meiner seite bilder verlinkt ?

Re: bilder klauer

Verfasst: 21.02.2006, 04:21
von Hasso
The-Plaqe hat geschrieben: soll dass auch gegen solche ripepr programme helfen ?
Meinst Du verschiedene Programme, die komplette Seiteninhalte saugen? Wenn ja, dann könnte man zum Schutz noch solche Lösungen einsetzen:
kleine Einführung:
https://www.abakus-internet-marketing.d ... -8573.html
Einige Beispiele:
https://www.abakus-internet-marketing.d ... 22936.html
https://www.abakus-internet-marketing.d ... -4594.html
https://www.abakus-internet-marketing.d ... 15802.html
https://www.abakus-internet-marketing.d ... 13681.html
https://www.abakus-internet-marketing.d ... t-985.html

Grüsse
Hasso

bilder klauer

Verfasst: 21.02.2006, 09:37
von The-Plaqe
jo des hab ich alles chon durch

... danke auf jeden fall für deine zusammenstellung...

bloss hat derjenige in dem ripper (ich schätze mal httrack) die agent-id und die kennung auf "none" gestellt somit kann nix geblockt werden....

auch die ip sperren wäre nicht so cool weil des ne dyn. aol ip ist.

ich dachte eher an eine lösung wie zum bsp:

ab einer bestimmten anzahl von anfragen die minute dass die ip autom für 24. std inne blackliste kommt, ausser ips oder per agent-id google bots und co. damit diese bots gezielt höhere abfragen machen können - also diesen bots das erlaubt ist... ein bot zum beispiel mit einer nicht bekannten agent browser kennung wird mit dieser regel behandelt, also die regel max zugriffe pro minute zum beispiel...

ich hoffe ich konnte meine gedanken gänge irgendwie klar machen *gg*

Verfasst: 21.02.2006, 16:39
von luigip
The-Plaqe schrieb:
bloss hat derjenige in dem ripper (ich schätze mal httrack) die agent-id und die kennung auf "none" gestellt somit kann nix geblockt werden....
Einer leerer UA wird von mir grundsätzlich geblockt. Wer so unterwegs ist hat i.A. nichts gutes im Sinn.

Nimm in deine Liste zu blockender UA´s noch ^$ auf.

Verfasst: 23.02.2006, 22:50
von RW
@The-Plaqe

https://www.abakus-internet-marketing.d ... 19689.html

$kill_after_time = 60*10; // zeit die ein user in der log.txt bleibt
$erlaubte_seiten = 15; // anzahl seiten die angesehen werden können
$update_time = 60*30; // alle 30 minuten update
$robots_file_time_udate = 60*30; // alle 30 minuten update die .bad

RW