Seite 1 von 1

Shopsuche für google optimieren

Verfasst: 14.01.2006, 14:07
von sebbastian
ich plane eine shopsuche (für online und offline shops). dabei werden uns die shops artikeldaten als xml-file übermitteln.
am liebsten möchte ich eine website nur mit der suchmaske. ich möchte die artikeldaten nicht katalogisieren. es ist mir jedoch aufgefallen, dass preissuchmaschinen und produktsuchmaschinen die artikel meist katalogisieren. dies wohl um bei google besser indexiert zu werden bzw. damit jede artikelseite indexiert wird.
ich habe mir überlegt, dass es möglich sein müsste entweder:
-die artikeldaten als xml einzulesen und dann von jedem artikel automatisch eine html-seite zu generieren.
- oder automatisch für jeden neuen artikel eine suchabrage in der eigenen suchmaschine zu generieren. das resultat der automatischen suche müsste dann automatisch als html seite generiert werden.
- zwischen den automatisch generierten seiten würde ich dann auch wieder automatisiert verlinkungen herstellen (nach logischen kriterien, d.h. wenn viele user die nach A suchen auch nach K suchen würde ich die Produkte A und K verlinken
- oder bin ich tatsächlich gezwungen einen katalog aufzubauen. leider sind die kataloge der aktuellen produktsuchmaschinen dann aber meist beschränkt. die suche nach einer flasche wein bleibt dann ohne ergebnis.

ich weiss viele fragen eines users der das forum per zufall gefunden hat. lese seit einigen tagen mit und bin von euch begeistert. werde gerne zur fragen des design weiterhelfen (gelernter grafiker mit programmiererfahrung).

grüsse, sebi

Verfasst:
von

Verfasst: 15.01.2006, 00:33
von Metaman
also eine html seite must du ja so oder so generieren.
ist jetzt nur die Frage, ob du diese Seite auf dem Server speicherst oder nicht...
wenn das ein bösewicht mitbekommt das du die Seiten speicherst, bombt der dir extrem schnell mit tausenden Suchanfragen den Server zu.
und legt ihn vielleicht sogar komplet lahm.

ohne die Seiten zu speichern hast du aber ähnliches Probleme, da das laden und Aufarbeiten der xml datein und erzeugen der ausgabe doch immer eine "Last" für den Server ist (jedenfalls bei extrem vielen zugriffen)

darum würde ich es so machen das die "seiten" dynamisch erzeugt werden, aber auf dem Server ein Cache angelegt wird, und je nach anzahl der Zugriffen löscht du diesen Cache regelmäßig,
dazu könnte auch gleich eine einfache Dateiüberwachung einbinden, die dafür sorgt das dein Cache nicht überläuft.
als z.b. wenn mehr als 5000 Dateien im Cache liegen werden die ältesten 2000 gelöscht..

Allerdings must Du natürlich auch den Suchmaschinen etwas anbieten.
also eine Art Livesuche, eine Seite auf der dann Links zu den letzten XXX suchabfragen angezeigt werden.
diese Links würde ich dannmit Mod Rewrite optimieren
also nicht index.php?suchwort=ABC sondern suchwortABC.htm oder nur ABC.htm (wobei die Endung nebensächlich ist)

wichtig ist dann natürlich, das diese Links nicht direkt zu den Cache Dateien zeigen, sondern die Suchfunktion auslösen.
Denn dann kannst du diese Liste regelmäßig löschen
Damit hast du dann je nach Aktivität der Besucher und der Spider sehr schnell tausende Seiten im Index der Suchmaschinen.

hatte selber etwas in der Art laufen, und bereits nach einem monat rund 800.000 Seiten im Google Index