Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
wäre es da nicht sinnvoll diese XML Abfragen zu cachen, und nur alle paar Stunden die aktuellen Daten aus den shops zu holen?Lars1 hat geschrieben: Bei den von mir erwähnten 50.000 Seitenaufrufen werden die XML-Schnittstellen mehrerer Shops realtime abgefragt.
Daraus resultierend entstehen Wartezeiten, die natürlich aufgrund der GoogleBot Anfragen sich erhöhen.
Da es sich um ca. 900000 Produkte handelt würde eine sehr hohe Anzahl Anfragen entstehen, wenn ich regelmäßig alle Produkte aktualisieren würde. Dies ist auch kritisch, da die Schnittstellen oftmals eine Beschränkung der zulässigen Anfragen pro Tag besitzen.wäre es da nicht sinnvoll diese XML Abfragen zu cachen, und nur alle paar Stunden die aktuellen Daten aus den shops zu holen?
Ich verstehe Deine Rechnung nicht: "Bei 10 Minuten wären es nur 6 pro Stunde". 6 pro Stunde und pro Produkt oder nicht?Also ich würde es wie net(t)worker machen.
Besorg Dir die Daten per xml oder wie auch immer und cache die direkt. Angezeigt werden die gecachten Daten, für den User und für den Bot. Und dann je nach Server läßt Du die einfach alle 60 / 30 / 10 Minuten aktuallisieren.
Selbst bei 10 Minuten wären das dann nur 6 Anfragen pro Stunde an die Schnittstelle, egal wieviele User/Bots Deine Seite besuchen. Aber welche Daten ändern sich schon alle 10 Minuten? Bei mir sind das meißt mehrere Tage oder Wochen für ein Produkt.