Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Affili.net oder Belboon

Erfahrungsberichte zu Affiliate-Programmen, Provisionen, Leads, Performance und Rendite.
preismuli
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 01.07.2008, 13:00

Beitrag von preismuli » 15.07.2008, 18:24

wie, bitte, ist es programmiert? XML oder csv Ergebnisse?
Es ist XML
Und was ist ein "schwacher" (oder kleiner) Server?
Wenn ich einen kleinen Webspace auf einem Server habe den sich dort dann noch 50 Leute teilen ist es meiner Meinung nicht gerade sinnvoll dort 100, 200 oder 300 CSV Dateien zu hinterlegen aus denen dann die Produktangebote erstellt werden. Da kann das Skript noch so gut sein aber die Abfrage der Produktdaten kann unter Umständen in einem solchen Fall viel zu lange dauern. Bei XML spielt das keine Rolle. Aber vielleicht habe ich auch nur zu wenig Ahnung davon und denke verkehrt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 15.07.2008, 21:00

preismuli hat geschrieben:
Und was ist ein "schwacher" (oder kleiner) Server?
Wenn ich einen kleinen Webspace auf einem Server habe den sich dort dann noch 50 Leute teilen ist es meiner Meinung nicht gerade sinnvoll dort 100, 200 oder 300 CSV Dateien zu hinterlegen aus denen dann die Produktangebote erstellt werden. Da kann das Skript noch so gut sein aber die Abfrage der Produktdaten kann unter Umständen in einem solchen Fall viel zu lange dauern. Bei XML spielt das keine Rolle. Aber vielleicht habe ich auch nur zu wenig Ahnung davon und denke verkehrt.
1. in besagte 10 MegaByte passen keine 100-300 CSV = ca10.000.000 Artikel
meine Faustformel ist 1000 Artikel pro Mega bzw 1 Giga pro 1Million Artikel
ich hab dort eine Handvoll csv drin = ca 5.000 Artikel

2.
Du sagst via XML ist das kein Problem
falsch
via WebService ist das vielleicht kein Problem ..... weil du dann keinen Speicher brauchst ....
... aber du tust doch Cachen = du brauchst doch Speicher
denn auch "schwacher" Webspace dürfte immer noch "kräftiger" sein als ständig erst den WebService zu lesen ..... naja, vielleicht auch nicht

aber, wie gesagt, du hast einen Cache .....
... dort ist dann nichtmehr WebService, dort ist dann Datei
und wie ich sagte, OPE sein WebService kann auch csv liefern

und csv ist besser
1.
habe vor Wochen bei SC, BB und AB wahllos einige PPs runtergeladen,
jeweils als csv und als xml
Festplatte .... Ergebmiss xml 50-100% größer (=Speicherbedarf 150-200%) ein Programm war ganz böse ... csv=30Mega xml=130Mega ( dreisig zu einHundertDreisig) .... nur weil da viele Felder keinen Inhalt haben und um jedes Feld immer und immer wieder der Feldname drumrum ist
2.
csv ist einfacher zu lesen
fgets
explode
dann hat man die Datenfelder
in xml geht das nicht so einfach .....
.... allerdings könnte man vielleicht auch "Byte by Byte" lesen und dabei Parsen und die Inhalte auf die Seite speichern(in PHP Array schreiben)

"Byte by Byte" bei beiden = klingt jetzt erstmal "gleichwertig" ist es aber nicht
bei csv lese ich einen Delemiter = was war ist vertig, was kommen wird ist nächste Nutzinfo
Bei xml ist das mit dem DelemiterZeichen nicht so einfach, da es ja ein TAG und kein Zeichen ist, auserdem kann zwischen den TAGs noch etwas Anderes sein, was in der Regel auch so ist

Aber, nurmal angenommen es wäre gleichwertig im Verarbeitungsaufwand
"Byte by Byte" bleibt ein Arbeitsaufwand von 150-200% in besagtem Extremfall sogar 500% gegenüber 100% bei csv (ähm korektur, TuugleRechner (100 / 30) * 130 = 433.333333)


noch "schwacher Server"
als ich vor Monaten meine SQL füllte .... bei ca 1 Million Datensätze brauchte die Startseite 20-30-40-80....weis nicht mehr wie lange, Sekunden .... oft wartete ich vergebens = garnix kam, Browser TimeOut
seiße ....
phpmyAdmin .... indexe angelegt = Startseite 0.5 Sekunden

mit XML gibts keine Probleme?
Du kennst doch sicher eine Anzahl XMLshops
schau dir mal dort überall das AOL Angebot an
1.4 Millionen
Album mehr als 500
hm
neben Album gibts noch Song ...
Song mehr als 500
macht irgendwie nur 1000 keine 1.4 Millionen

zu 50% von denen die ich kenne sinds aber nur 500
weil unter Song garnix kommt "Categorie nichtmehr vorhanden"


wie war nochmal dein letzter Satz?
preismuli hat geschrieben: Aber vielleicht habe ich auch nur zu wenig Ahnung davon und denke verkehrt.

preismuli
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 01.07.2008, 13:00

Beitrag von preismuli » 15.07.2008, 22:21

Also irgenwie haben wir nun doch so ziemlich die gleiche Meinung was XML und CSV anbelangt. Die Erfahrungen mit dem runterladen und vergleichen von XML und CSV habe ich natürlich auch gemacht. Daher nutze ich XML nur per webservice wie zum Beispiel bei SC oder beim Preismuli .
CSV mit ca. 2 MIO. Artikelpreise nutze ich im Auktionshaus . Geht aber auch nur weil a) die Daten in die Datenbank eingelesen werden und b) es sich hier um einen V-Server mit entsprechender Leistung handelt. Hatte das früher auch schon auf einem normalen billig Webspace ausprobiert aber das ging überhaupt nicht. Viel zu lange Ladezeiten genau wie Du beschrieben hast.
Das OPE nutzt den Cache aber Preismuli nicht und trotzdem geht es relativ schnell. Es liegt auch viel am Webservice-Anbieter wie schnell die Daten gezogen werden können. Bei BB zum Beispiel war ich total verblüfft wie schnell das ging. Daher auch meine Frage zur Eröffnung des Threads. Von BB können sich manch andere noch eine Scheibe von abschneiden obwohl BB zur Zeit leider noch nicht die Shopanzahl anbieten kann wie Affili.net .

Thema AOL:
Wieviel Artikel dort angeboten werden entzieht sich meiner Kenntnis. Es werden aber bestimmt mehr als 1 Mio. sein. Diese kommt daher das alle Titel die sich in einem Album befinden auch als Einzelsong angeboten werden. Dadurch erreicht man dann natürlich ein vielfaches an Artikel.
mit XML gibts keine Probleme?
Dies war nur in Verbindung auf die Größe eines Webspace und der Schnelligkeit der Abfrage gemeint. XML ist nur dann nützlich wenn mann den dazugehörigen Webservice zur Abfrage der gesuchten Daten nutzt.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 16.07.2008, 00:58

preismuli hat geschrieben: Bei BB zum Beispiel war ich total verblüfft wie schnell das ging. Daher auch meine Frage zur Eröffnung des Threads. Von BB
ähm, haben die jetzt auch einen WebService?
wenn ja: die Daten vom SmartPrice?
oder meinst du jetzt die CSV-Downloads .... wie ich schon sagte, muß man als Affili die URLs zusamenbauen, BB baut keine AccountID in die Daten = einfach ein fopen+echo ..... Die Anderen können sich da schlecht eine Scheibe abschneiden, da die noch AccountID einbauen, also zusätzlich Befehle zur Datenänderung nötig sind

Bei BB würd ich sagen, kommt es auch aus einer Datei
Bei An + ZX eher aus der SQL, weils dort wegen WebService drin ist. Grund für die Annahme, Verzögerungen bei großen dateien bis mal das erste Byte ankommt = die Verzögerung bis SQL den $result liefert, damit der echo liefern kann

betr
2 Millinen CSV in SQL geht nur mit V-Server
1 bis vielleicht 1.5(oder 1.4) https://artfiles.de/webhosting/business/ small 1.200Mega
jetzt 3.57, bald wieder 4 (oder 3.9) https://artfiles.de/webhosting/professional/ big 6.000 Mega

und die AOL ....
die will ich mir umstrukturieren
"nur" Album + die Songs in der Beschreibung = nur noch ca 77ooo Datensätze
.... das hatte ich glaub schon im OMT erwähnt

preismuli
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 01.07.2008, 13:00

Beitrag von preismuli » 16.07.2008, 18:37

ähm, haben die jetzt auch einen WebService?
wenn ja: die Daten vom SmartPrice?
Das dachte ich aber da war ich wohl auf dem Holzweg. SmartPrice wird über eine Subdomain abgerufen. So wie ich es sehe befinden sich die Daten in SQL.
die will ich mir umstrukturieren
"nur" Album + die Songs in der Beschreibung = nur noch ca 77ooo Datensätze
Das ist sicherlich eine gute Idee. Hoffentlich funktioniert es.

Anonymous

Beitrag von Anonymous » 02.08.2008, 13:06

800XE hat geschrieben: csv ist einfacher zu lesen
fgets
explode
dann hat man die Datenfelder
naja... ganz so einfach ist es meist auch nicht... explode kann in den meisten Fällen für ein Produkt CSV nicht verwendet werden, weil damit auch Trennzeichen innerhalb von Beschreibungs-Texten erkannt werden und schon stimmt die Anzahl der Felder nicht mehr..... da musst in einer Schleife von trennzeichen zu Trennzeichen hüpfen und hierbei auch beachten ob es nun zwischen zwei " also innerhalb eines Textfeldes steht oder wirklich ein Trennzeichen ist...

800XE
PostRank 10
PostRank 10
Beiträge: 5223
Registriert: 02.12.2004, 03:03

Beitrag von 800XE » 02.08.2008, 21:37

net(t)worker hat geschrieben:
800XE hat geschrieben: csv ist einfacher zu lesen
fgets
explode
dann hat man die Datenfelder
naja... ganz so einfach ist es meist auch nicht... explode kann in den meisten Fällen für ein Produkt CSV nicht verwendet werden, weil damit auch Trennzeichen innerhalb von Beschreibungs-Texten erkannt werden und schon stimmt die Anzahl der Felder nicht mehr..... da musst in einer Schleife von trennzeichen zu Trennzeichen hüpfen und hierbei auch beachten ob es nun zwischen zwei " also innerhalb eines Textfeldes steht oder wirklich ein Trennzeichen ist...
NetWorker, du bist selbst Programmierer?

Ja, dein Einwand ist 100% korrekt .... für das "alte" CSV

Code: Alles auswählen

$head=fgetcsv($handle2, 24000, $delemiter2);
$RUN2=time()+60;echo(' #');flush();
while( $RUN && $RUN2 > ($nowsec=time()) )
{
  if( $RUN && $csv1=fgetcsv($handle2, 80000, $delemiter2) )
der "fgetcsv" braucht etwa 10mal so lange wie ein "fgets + explode"
"fgets + explode" ist bei herkömmlichen CSV nicht immer einsetzbar, wie du richtig eingewändet hast

Aber auch der fgetcsv funktioniert nicht immer
In wenigen Fällen kommt es vor das der "fgetcsv" abstürtzt

Code: Alles auswählen

 echo('goREAD');flush();
 $csv1=fgetcsv($handle2, 80000, $delemiter2) )
 echo('...READY');flush();
 
Es gibt Datensätze, die kommen nicht zum "..READY" .. hab nicht genau Analysiert warum der fgetcsv "abstürtzt", was falsch ist.
Ich überspringe Diese datensätze mit einen "fgets".
800XE hat geschrieben: NetWorker, du bist selbst Programmierer?

Ja, dein Einwand ist 100% korrekt .... für das "alte" CSV

"fgetcsv" braucht etwa 10mal so lange wie ein "fgets + explode"
Ich rede eigentlich auch von csvAdvanced

=

Es gibt nur ein DelemiterZeichen, das TAB
Es gibt keine Anführungszeichen Eingrenzung der Datenfelder
Es dürfen trotzdem TAB und sogar RETURN bzw NEWLINE in den Datenfeldern drin stehen .....
.... Du bist Rpogrammierer? Du weist wie man das Macht?

Code: Alles auswählen

$textBuffer = 'Ich bin Zeile 1
Ich bin Zeile 2';

echo( nl2br( $textBuffer ) );
Als ProgrammQuelltext hässlich, da eine eventuelle Einrückung zerstört wird

Code: Alles auswählen

if ( irgendwas
{
  if ( nochirgendwas
  {
     $textBuffer .= 'Ich bin Zeile 1
Ich bin Zeile 2';
  }
}
echo( nl2br( $textBuffer ) );
Hübscher als ProgrammCode und genau damit auch csvTauglich

Code: Alles auswählen

if ( irgendwas
{
  if ( nochirgendwas
  {
     $textBuffer .= "Ich bin Zeile 1\nIch bin Zeile 2";
  }
}
echo( nl2br( $textBuffer ) );
csvAdvanced hat zusätzlich noch eine "RAEDY" Datenzeile am Ende ....
...
1. Der der liest, weis dann das er alles gelesen hat
1b. hat er nicht alles gelesen, kann der sagen "gib die Daten nochmal, mit Offset 123"
1bb oder der "WebService" oder wer auch immer, liefert per default nur via LIMIT .... = vollautomatische Aufteilung einer RIESIGEN Datei auf mehrere kleine Dateien



Gruß
Andy 800XE Zmuda

ferykovacs
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 18.10.2008, 17:59
Wohnort: Maintal

Beitrag von ferykovacs » 18.10.2008, 18:06

Hat jemand schon mit Bidhaus Erfahrung?

netnut
PostRank 9
PostRank 9
Beiträge: 1931
Registriert: 30.10.2004, 01:24

Beitrag von netnut » 18.10.2008, 18:11

ferykovacs hat geschrieben:Hat jemand schon mit Bidhaus Erfahrung?
Wenn man schon auf so billige Art und Weise Werbung platzieren will, dann sollte man hier im Forum nicht den gleichen Wohnort angeben wie im Impressum... :roll:

Und der Name ist ja auch noch der Gleiche...

Corlath
PostRank 7
PostRank 7
Beiträge: 523
Registriert: 25.11.2003, 14:17
Wohnort: Wechselhaft, aber sonnig

Beitrag von Corlath » 20.11.2008, 23:21

Hey fery, bist du der kerl, der unsere Texte 1:1 kopiert und es echt nicht auf die freundliche Art begreifen will ?
https://www.affilinator.de/sonderedition/
Jetzt komplett kostenlos! affilinet, amazon, ebay, zanox und mehr Produktdaten live via XML Webservice ohne Programmierkenntnisse!
https://www.zaffili.com/demo/
Affilinator Demo der kostenlosen Version

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag