Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Affili.net oder Belboon

Erfahrungsberichte zu Affiliate-Programmen, Provisionen, Leads, Performance und Rendite.
preismuli
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 01.07.2008, 13:00

Beitrag von preismuli » 15.07.2008, 18:24

wie, bitte, ist es programmiert? XML oder csv Ergebnisse?
Es ist XML
Und was ist ein "schwacher" (oder kleiner) Server?
Wenn ich einen kleinen Webspace auf einem Server habe den sich dort dann noch 50 Leute teilen ist es meiner Meinung nicht gerade sinnvoll dort 100, 200 oder 300 CSV Dateien zu hinterlegen aus denen dann die Produktangebote erstellt werden. Da kann das Skript noch so gut sein aber die Abfrage der Produktdaten kann unter Umständen in einem solchen Fall viel zu lange dauern. Bei XML spielt das keine Rolle. Aber vielleicht habe ich auch nur zu wenig Ahnung davon und denke verkehrt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 15.07.2008, 21:00

preismuli hat geschrieben:
Und was ist ein "schwacher" (oder kleiner) Server?
Wenn ich einen kleinen Webspace auf einem Server habe den sich dort dann noch 50 Leute teilen ist es meiner Meinung nicht gerade sinnvoll dort 100, 200 oder 300 CSV Dateien zu hinterlegen aus denen dann die Produktangebote erstellt werden. Da kann das Skript noch so gut sein aber die Abfrage der Produktdaten kann unter Umständen in einem solchen Fall viel zu lange dauern. Bei XML spielt das keine Rolle. Aber vielleicht habe ich auch nur zu wenig Ahnung davon und denke verkehrt.
1. in besagte 10 MegaByte passen keine 100-300 CSV = ca10.000.000 Artikel
meine Faustformel ist 1000 Artikel pro Mega bzw 1 Giga pro 1Million Artikel
ich hab dort eine Handvoll csv drin = ca 5.000 Artikel

2.
Du sagst via XML ist das kein Problem
falsch
via WebService ist das vielleicht kein Problem ..... weil du dann keinen Speicher brauchst ....
... aber du tust doch Cachen = du brauchst doch Speicher
denn auch "schwacher" Webspace dürfte immer noch "kräftiger" sein als ständig erst den WebService zu lesen ..... naja, vielleicht auch nicht

aber, wie gesagt, du hast einen Cache .....
... dort ist dann nichtmehr WebService, dort ist dann Datei
und wie ich sagte, OPE sein WebService kann auch csv liefern

und csv ist besser
1.
habe vor Wochen bei SC, BB und AB wahllos einige PPs runtergeladen,
jeweils als csv und als xml
Festplatte .... Ergebmiss xml 50-100% größer (=Speicherbedarf 150-200%) ein Programm war ganz böse ... csv=30Mega xml=130Mega ( dreisig zu einHundertDreisig) .... nur weil da viele Felder keinen Inhalt haben und um jedes Feld immer und immer wieder der Feldname drumrum ist
2.
csv ist einfacher zu lesen
fgets
explode
dann hat man die Datenfelder
in xml geht das nicht so einfach .....
.... allerdings könnte man vielleicht auch "Byte by Byte" lesen und dabei Parsen und die Inhalte auf die Seite speichern(in PHP Array schreiben)

"Byte by Byte" bei beiden = klingt jetzt erstmal "gleichwertig" ist es aber nicht
bei csv lese ich einen Delemiter = was war ist vertig, was kommen wird ist nächste Nutzinfo
Bei xml ist das mit dem DelemiterZeichen nicht so einfach, da es ja ein TAG und kein Zeichen ist, auserdem kann zwischen den TAGs noch etwas Anderes sein, was in der Regel auch so ist

Aber, nurmal angenommen es wäre gleichwertig im Verarbeitungsaufwand
"Byte by Byte" bleibt ein Arbeitsaufwand von 150-200% in besagtem Extremfall sogar 500% gegenüber 100% bei csv (ähm korektur, TuugleRechner (100 / 30) * 130 = 433.333333)


noch "schwacher Server"
als ich vor Monaten meine SQL füllte .... bei ca 1 Million Datensätze brauchte die Startseite 20-30-40-80....weis nicht mehr wie lange, Sekunden .... oft wartete ich vergebens = garnix kam, Browser TimeOut
seiße ....
phpmyAdmin .... indexe angelegt = Startseite 0.5 Sekunden

mit XML gibts keine Probleme?
Du kennst doch sicher eine Anzahl XMLshops
schau dir mal dort überall das AOL Angebot an
1.4 Millionen
Album mehr als 500
hm
neben Album gibts noch Song ...
Song mehr als 500
macht irgendwie nur 1000 keine 1.4 Millionen

zu 50% von denen die ich kenne sinds aber nur 500
weil unter Song garnix kommt "Categorie nichtmehr vorhanden"


wie war nochmal dein letzter Satz?
preismuli hat geschrieben: Aber vielleicht habe ich auch nur zu wenig Ahnung davon und denke verkehrt.

preismuli
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 01.07.2008, 13:00

Beitrag von preismuli » 15.07.2008, 22:21

Also irgenwie haben wir nun doch so ziemlich die gleiche Meinung was XML und CSV anbelangt. Die Erfahrungen mit dem runterladen und vergleichen von XML und CSV habe ich natürlich auch gemacht. Daher nutze ich XML nur per webservice wie zum Beispiel bei SC oder beim Preismuli .
CSV mit ca. 2 MIO. Artikelpreise nutze ich im Auktionshaus . Geht aber auch nur weil a) die Daten in die Datenbank eingelesen werden und b) es sich hier um einen V-Server mit entsprechender Leistung handelt. Hatte das früher auch schon auf einem normalen billig Webspace ausprobiert aber das ging überhaupt nicht. Viel zu lange Ladezeiten genau wie Du beschrieben hast.
Das OPE nutzt den Cache aber Preismuli nicht und trotzdem geht es relativ schnell. Es liegt auch viel am Webservice-Anbieter wie schnell die Daten gezogen werden können. Bei BB zum Beispiel war ich total verblüfft wie schnell das ging. Daher auch meine Frage zur Eröffnung des Threads. Von BB können sich manch andere noch eine Scheibe von abschneiden obwohl BB zur Zeit leider noch nicht die Shopanzahl anbieten kann wie Affili.net .

Thema AOL:
Wieviel Artikel dort angeboten werden entzieht sich meiner Kenntnis. Es werden aber bestimmt mehr als 1 Mio. sein. Diese kommt daher das alle Titel die sich in einem Album befinden auch als Einzelsong angeboten werden. Dadurch erreicht man dann natürlich ein vielfaches an Artikel.
mit XML gibts keine Probleme?
Dies war nur in Verbindung auf die Größe eines Webspace und der Schnelligkeit der Abfrage gemeint. XML ist nur dann nützlich wenn mann den dazugehörigen Webservice zur Abfrage der gesuchten Daten nutzt.