Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

bilder klauer

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 20.02.2006, 21:23

moin,

also ich habe nun schon seit geraumer zeit ein web foto-album wo ich jährlich bilder von mallorca (also der urlaubszeit) online stelle. mittlerweile haben sich dort nun schon über die jahre hinweg um die 10.000 bildchen angesammelt.

vorhin habe ich in meinen logs nachgeschaut und bemerkt dass in der zeit von 8- ca. 13 uhr ein bilderdieb sämtliche bilder vom server gezogen hat, anhand der zeit-spanne zu jedem einzelnen bild hat er es auch nicht manuell gemacht, sondern per ripper o.ä.

nun meine frage... kenn jemand von euch ein htaccess schutz oder ein nettes php script welches es unterbindet bilder in einer solch hohen masse zu stehlen (traffic!!).

hierbei spielt es für mich auch keine rolle ob eventuell google und co. die bilder auch nicht aufnehmen können, ich bedanke mich für zahlreiche hinweise und tipps zu dieser problematik.

gruss plaqe

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 20.02.2006, 22:29


The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 21.02.2006, 02:00

jo thx

soll dass auch gegen solche ripepr programme helfen ?

oder gilft dass nur wenn jemand extern auf einer anderen seite von meiner seite bilder verlinkt ?

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 21.02.2006, 04:21

The-Plaqe hat geschrieben: soll dass auch gegen solche ripepr programme helfen ?
Meinst Du verschiedene Programme, die komplette Seiteninhalte saugen? Wenn ja, dann könnte man zum Schutz noch solche Lösungen einsetzen:
kleine Einführung:
https://www.abakus-internet-marketing.d ... -8573.html
Einige Beispiele:
https://www.abakus-internet-marketing.d ... 22936.html
https://www.abakus-internet-marketing.d ... -4594.html
https://www.abakus-internet-marketing.d ... 15802.html
https://www.abakus-internet-marketing.d ... 13681.html
https://www.abakus-internet-marketing.d ... t-985.html

Grüsse
Hasso

The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 21.02.2006, 09:37

jo des hab ich alles chon durch

... danke auf jeden fall für deine zusammenstellung...

bloss hat derjenige in dem ripper (ich schätze mal httrack) die agent-id und die kennung auf "none" gestellt somit kann nix geblockt werden....

auch die ip sperren wäre nicht so cool weil des ne dyn. aol ip ist.

ich dachte eher an eine lösung wie zum bsp:

ab einer bestimmten anzahl von anfragen die minute dass die ip autom für 24. std inne blackliste kommt, ausser ips oder per agent-id google bots und co. damit diese bots gezielt höhere abfragen machen können - also diesen bots das erlaubt ist... ein bot zum beispiel mit einer nicht bekannten agent browser kennung wird mit dieser regel behandelt, also die regel max zugriffe pro minute zum beispiel...

ich hoffe ich konnte meine gedanken gänge irgendwie klar machen *gg*

luigip
PostRank 8
PostRank 8
Beiträge: 892
Registriert: 24.01.2005, 18:22

Beitrag von luigip » 21.02.2006, 16:39

The-Plaqe schrieb:
bloss hat derjenige in dem ripper (ich schätze mal httrack) die agent-id und die kennung auf "none" gestellt somit kann nix geblockt werden....
Einer leerer UA wird von mir grundsätzlich geblockt. Wer so unterwegs ist hat i.A. nichts gutes im Sinn.

Nimm in deine Liste zu blockender UA´s noch ^$ auf.

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 23.02.2006, 22:50

@The-Plaqe

https://www.abakus-internet-marketing.d ... 19689.html

$kill_after_time = 60*10; // zeit die ein user in der log.txt bleibt
$erlaubte_seiten = 15; // anzahl seiten die angesehen werden können
$update_time = 60*30; // alle 30 minuten update
$robots_file_time_udate = 60*30; // alle 30 minuten update die .bad

RW

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag