Seite 1 von 1

Suchfunktion für Website

Verfasst: 01.12.2009, 13:27
von waneck
Für ein größeres Projekt (mehrere 1000 Seiten) wird eine Suchefunktion benötigt. Diese sollte werbefrei sein, sie darf etwas kosten, möglichst aber keine monatliche, sondern eine Einmalzahlung.

Wer hat eigene Erfahrungen und kann einen guten Tipp geben?

Die Google Suche für Webmaster haben wir uns angeschaut. Jedoch sollen neutrale Suchefelder eingesetzt werden, keine mit die mit dem Google Schriftzug versehen sind.

Gruß waneck

Verfasst:
von

Verfasst: 01.12.2009, 13:31
von Lord Lommel
Nutzt ihr ein CMS ?

Verfasst: 01.12.2009, 13:33
von Garfield
Dumm gefragt:

Das sind aber nicht alles echte statische Seiten ? Dafür hab ich nämlich ein selbständig aktualisierendes OS-Script auf einer kleinen Website im Einsatz, das ich dir raussuchen könnte.

Verfasst: 01.12.2009, 13:40
von waneck
Garfield hat geschrieben:Dumm gefragt:

Das sind aber nicht alles echte statische Seiten ? Dafür hab ich nämlich ein selbständig aktualisierendes OS-Script auf einer kleinen Website im Einsatz, das ich dir raussuchen könnte.
Es sind rund 80% statische und 20% dynamische Seiten enthalten.
Lord Lommel hat geschrieben:Nutzt ihr ein CMS ?
Ein Teil der Seiten sind in einem CMS (ohne integrierter Suchfunktion), ein Teil ist Handarbeit, ein Teil ist dynamisch.

Verfasst: 01.12.2009, 14:35
von Lord Lommel
Ui, da wünsch ich mal viel Glück...

Verfasst: 01.12.2009, 15:18
von Rem
Ja die Mischung ist kompliziert, aber da könnte man einen normalen html-Spider nutzen?

Das geht auf dem eigenen Server mittels cronjob zu starten und richtig dicker Datenbank...
...oder man pflegt sowas bequem zu Hause (Also der Index wird auf dem Windows-Rechner erstellt):

https://www.wrensoft.com/zoom/

Die Software liest Dateien auf dem Heim-Computer und auch Startpunkte im Internet ein. DB ist nicht nötig, die Software verwaltet eigene, stark komprimierte Files (mit Worten, Seitentitel). In der .cgi-Version ist eine Suche über 5000 Seiten mit einem Wortindex über 100 000 Worten in 0.03 Sekunden erledigt. Bei PHP geht das in etwa einer Sekunde (bei mir läuft nur noch das kompilierte cgi).

Ob das "Indexing" zu Hause ein Nachteil ist? Keine Ahnung. Ich mach das einmal die Woche in 10 Minuten und übertrage dann die Index-Files auf den Server, was 5 Minuten verbraucht...

99 USD sind fair...

Hier ein Demo mit der Wikipedia:
https://www.wrensoft.com/cgi-bin/wikipedia/search.cgi

Design lässt sich problemlos selbst festlegen, Deutsche Sprache (Umlauts) werden unterstützt.

Verfasst: 01.12.2009, 15:31
von waneck
Rem hat geschrieben: Ob das "Indexing" zu Hause ein Nachteil ist? Keine Ahnung. Ich mach das einmal die Woche in 10 Minuten und übertrage dann die Index-Files auf den Server, was 5 Minuten verbraucht...

99 USD sind fair...
Danke für Deinen Tipp. Aber, ich suche eine automatisierte Lösung, wo kein Zutun, ausser der Einrichtung erforderlich sein sollte.

Gruß waneck

Verfasst: 01.12.2009, 16:03
von Loptr
... aber die Ansätze sind doch schon ganz gut.

Soweit es das gibt benötigst du folgendes:

- einen Spider, welcher deine statischen Seiten am besten per Cron in der Nacht in seine DB bringt
- ein Abfrage(Such)Script, welches dir die Daten aus deinem CMS und aus der SpiderDB zur Verfügung stellt

Klingt nach ein bisschen googlen (nach nem Spider) und coden (Suchabfrage) :-)