hab das Forum schon ne ganze Weile durchsucht, aber nix wirklich brauchbares gefunden. Ich bin recht neu auf dem Gebiet und stehe grad vor einem (für mich größeren) Problem.
Wir sind Externer Dienstleister für eine große Firma. Wir pflegen für ihn einen kompletten Intranet-Bereich, welcher mittlerweile auch eine stattliche Größe hat.
Zur Problematik.
Es gibt ein Unterverzeichnis in diesem Web, bestehend aus 7 Html-Seiten auf denen jede Menge Dokumente (ca. 2 GB an XLS und PPT) verlinkt sind. Nun soll hier eine Suche integriert werden. Wir selbst können keinerlei Anwendungen im Intranet Installieren um eine eigene Suche zu realisieren. Also müssen wir die Suchfunktion verwenden, welche von der Firma auch standardmäßig verwerdet wird. Diese basiert wohl auf einer Google-ähnlichen Basis und indiziert alle Seiten.
Nun will ich dass die Suche innerhalb aller 7 Seiten im Kopf eingebunden wird (schon passiert) aber auch wirklich nur diese 7 Seiten indiziert und den kompletten Rest ignoriert. Das heißt Suchergebnisse sollten sich nur auf diese Inhalte beziehen.
- Gibt es da Befehle um nur die momentane Seite zu durchsuchen?
- Gibt es da ne Möglichkeit über die robots.txt?
- Muss ich alle Seiten quasi "disallowen" und nur dieses Verzeichnis nicht,
oder kann ich irgendwie sagen disallow alle Verzeichnisse und die 7 Seiten explizit einzuladen.
Puuh schwierig mein Anliegen zu formulieren:-)
Muss die Robots-Datei dann eigentlich auf im Rootverzeichnis liegen, oder reicht es, wenn diese in eben diesem Verzeichnis liegt wo die 7 Html-Seiten liegen. Schließlich ist die Suche ja auch nur dort eingebunden.
Ich versuche mir grad einfach ein Bild zu verschaffen, was da alles möglich ist und was da die beste Lösung wäre. Vielleicht kann mir ja einer von euch da weiterhelfen. Wie schon gesagt, für mich ist das ganze Thema noch total Banane
