Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Timeout bei Produktdaten upload .....

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
pocki
PostRank 1
PostRank 1
Beiträge: 24
Registriert: 18.10.2005, 15:20

Beitrag von pocki » 18.10.2005, 15:27

Hallo zusammen,

ich hoffe das ich hier richtig mit meinem Beitrag bin.

Folgendes Problem versuche ich seit Monaten zu bewältigen. Ich möchte einen Online Shop erstellen wo die Produktdaten direkt von ( Affilinet oder Zanox ) geladen und entsprechend verarbeitet werden um diese dan auch direkt in der Datenbank zu speichern. Das ganze dann schön sortiert nach Kategorien. Bis dahin kein problem.

Jetzt kommt es aber bei ganz großen Dateien ( csv ) immer zum Timeout wenn diese geladen // verarbeitet werden wollen. Da ich ein Script erstellen möchte ohne unbedingt Zugriff auf die php.ini zu besitzen würde ich lieber eine Scriptlösung bevorzugen. Es sind ja einige schon im Umlauf. Leider wie ich aber nicht wie ich die zu großen Dateien ohne timeout bearbeiten könnte.

Meine Idee : Datei erst auf dem Server ablegen, dann auslesen und teilweise oder zeilenweise bearbeitet in die Datenank speichern. Aber wie würde ein Beispielcode aussehen ?

Vieleicht habt Ihr ja die ein oder andere Idee oder ein Code-Schnippsel um mir mal zu zeigen wie das ganze funktionieren könnte.

Danke ersteinmal.

Gruß Pocki

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


OnkelHotte
PostRank 6
PostRank 6
Beiträge: 439
Registriert: 29.06.2005, 07:05

Beitrag von OnkelHotte » 18.10.2005, 16:05

vorne weg: https://de.wikipedia.org/wiki/Gzip

codeschnippsel:

Code: Alles auswählen

<?
set_time_limit&#40;0&#41; // run 4ever
if &#40;!$r=fopen&#40;"meine.csv","r"&#41;&#41; &#123;
die&#40;"meine.csv laesst sich nicht einlesen"&#41;;
while &#40;!feof&#40;$r&#41;&#41; &#123;
  $zeile=fgets&#40;$r,65535&#41;;
machwasmitzeile&#40;$zeile&#41;;
&#125;
?>
So jetzt musst Du nur noch die function machwasmitzeile coden und schick.

pocki
PostRank 1
PostRank 1
Beiträge: 24
Registriert: 18.10.2005, 15:20

Beitrag von pocki » 18.10.2005, 16:14

Hört sich schonmal ganz gut an ! Aber ich glaube sowas ähnliches hatte ich auch schon mal probiert. Wenn die jetzt die Zeilen in die Datenbank einfügen will .... wie muss das ganze dann ungefair aussehen. Ich habe voll den Blackout. Suche echt schon sehr lange nach ner Möglichkeit aber ich finde immer nur Bruchstücke die ich dann noch nicht mal irgendwie richtig zusammensetzen kann.

Hast du vieleicht ein etwas kompakteres Beispiel mit einem SQL import oder so ?
Vieleicht auch als PN - Wäre echt klasse.

<?
set_time_limit(0) // run 4ever
if (!$r=fopen("meine.csv","r")) {
die("meine.csv laesst sich nicht einlesen");
while (!feof($r)) {
$zeile=fgets($r,65535);

-------> HIER SQL INSERT ???

machwasmitzeile($zeile);
}
?>

OnkelHotte
PostRank 6
PostRank 6
Beiträge: 439
Registriert: 29.06.2005, 07:05

Beitrag von OnkelHotte » 18.10.2005, 16:35

DAS kann man nur individuell mit Deinen Daten machen. Da musst Du Dir wohl einen Fachmann einkaufen.

pocki
PostRank 1
PostRank 1
Beiträge: 24
Registriert: 18.10.2005, 15:20

Beitrag von pocki » 18.10.2005, 16:44

Wieso das ? Mein Script funktioniert ja schon wunderbar. Nur bei den großen daten gibts probleme. Es sind ja standarddaten von Zanox oder Affilinet. Es geht eigentlich nr darum den timeout bei den großen dateien zu umgehen.

Der Ansatz oben von Dir ist doch schonmal etwas oder nicht ?

Jetzt gehts ja nur noch darum die einzelnen Zeilen nach und nach hoch zu laden oder bin ich jetzt voll von der Rolle ?

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag