Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Ergebnis in txt Datei schreiben

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 16.05.2011, 09:38

Melegrian hat geschrieben:Wie stellst Du Dir so eine Schimpfwortliste vor? Da gibt es doch kaum kontrollierbare Phrasen, könnte ich mir zumindest vorstellen.
Klar hier kann man natürlich jeden Filter umgehen. Aber durch die Kombination mit der IP-Sperre ist das schon ok. Schimpfwörter senden wenn eh nur Kids ab. Die richtigen Angreifer interessieren sich nur für XSS und Server lahmlegen. Wenn sich wirklich jemand die Mühe macht und mit einem Botnetz Schimpfwörter absetzt, muss der wirklich Langeweile haben ^^
Ich kaufe Dein Forum!
Kontaktdaten

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 16.05.2011, 11:38

Eine kleine Liste mit den bekanntesten obszönen und vulgären Schimpfworten wäre nicht das Problem. Doch zum Beispiel wird aus vielen ganz normalen Bezeichnungen für Haustiere erst in Verbindung mit menschlichen Namen eine Beschimpfung.

Bei meiner IP-Sperre speichere ich im ersten Schritt die IP zusammen mit dem Timestamp in eine Datei, in der jeder Eintrag gelöscht wird, der älter als eine Stunde ist. Im zweiten Schritt folgt dann eine Kontrolle, ob eine IP öfters als 60 Mal als Eintrag vorhanden ist. Falls der Fall, wird das Script bei diesem Besucher nicht ausgeführt. Der 61 Zugriff kann von dieser IP somit erst 60 Minuten nach dem ersten Zugriff erfolgen.
Der Teil mit der IP-Sperre wäre aber länger als der erste Teil des bisherigen Scriptbeispiels. Dem Threadersteller ging es ja eigentlich nur darum, wie er die Suchanfragen für eine Unterseite anzeigen und in einer Textdatei abspeichern kann, dafür dürfte die jetzige Lösung reichen. Die Einschleusung von XSS-Code oder eine Lahmlegung des Servers sollte nicht mehr möglich sein.

Eventuell könnte es noch ein Problem mit den Umlauten geben, bei mir wurden die zumindest sauber abgespeichert. Da müsste dann gegebenenfalls noch ein wenig nachgebessert werden, wobei die Ausgabe ja auch vom verwendeten Charset beeinflusst wird.

Synonym
PostRank 10
PostRank 10
Beiträge: 3708
Registriert: 09.08.2008, 02:55

Beitrag von Synonym » 16.05.2011, 12:01

Hm, Ihr diskutiert hier über Sicherheit. Klar ist mein file() da auch nicht sonderlich gut, das weiß ich. Es gibt aber auch nur darum, wie man die Datei auslesen und unique setzen kann. Alles andere hatte ich auch gar nicht berücksichtigt.

Ich würde so etwas immer über eine DB machen und nicht über Dateien. Da gibt es dann auch keine doppelten Einträge und direkt selektieren kann man auch, was man ausgeben möchte. Dieses "alles in extra Files schreiben" und ein Index-File dazu ist auch überflüssig, denn genau dazu gibt es Datenbanken. Ich möchte zumindest per FTP keinen Ordner öffnen müssen, in dem 50.000 Dateien liegen oder so....

Diese ganzen Sperren sind dann ein zusätzliches Beiwerk, das man sicherlich nicht außen vor lassen sollte.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag