ich suche verzweifelt nach einem Script (Perl oder PHP) für die Implementierung einer Suche auf der eigenen Website (200-300 Pages). Das Script sollte einen Index anlegen (am besten als Datei, zur Not auch MySQL-DB) und einen Crawler besitzen, der über HTTP arbeitet und nicht über's Filesystem, damit auch PHP-Files vom Webserver geparsed werden. Und das Script sollte aktiv weiterentwickelt werden.
Ich habe schon folgende getestet:
TSEP
-> habe ich nicht zum laufen bekommen
KSearch
-> eine Menge Bugs, kommt mit Umlauten nicht zurecht, crawlt über Filesystem, unmögliches Ranking der Suchergebnisse
Perlfect Search
-> hat mir zunächst ganz gut gefallen, kann auch über HTTP crawlen, aber dann habe ich doch ein paar eklige Bugs gefunden; wird nicht mehr weiterentwickelt, die neueste Version ist über 4 Jahre alt
Habe nur ein Script im Angebot, welches Files crawlt. PHP-Dateien werden mit durchsucht und der PHP-Code per Regex ausgefiltert. Beim Klick auf einem Eintrag werden die Seiten dann ja geparst geladen. Perfekt ist es auch nicht, war mehr ein Übungsprojekt, erfüllte bisher aber gut seine Dienste. Ob ich mal die Zeit finde, das Script zu überarbeiten, weiß ich nicht.