wiesel hat geschrieben:
1 Post und solch großen Töne. Ich wage ja schonmal zu bezweifeln, dass ein SQL Server auf'nem vServer 1000 Updates auf'nen Index schafft, nichtmal als MySQL/InnoDB Kombi. 10 Euro Server schonmal garnicht, die haben wenn überhaupt SATA Platten mit 7.200 RPM und Zugriffszeiten > 8 ms. Den Cache kann man ignorieren, der nutzt nichts wenn die Platte mit schreiben nicht hinterher kommt. Rechnet man noch den Overhead von System und Datenbank dazu, ist das physikalisch unmöglich. Von den 50 anderen virtuellen Systemen mal ganz abgesehen... Du kannst zwar alles auf'ner RAM-Disk schaufeln aber ab ein paar Mio. Datensätzen ist das eine gefährliche spielerei.
Wie kommst du auf die 1.000 SQL-Updates pro Sekunde? Speicherst du jedes ermittelte "nicht-frei" einzeln in der Datenbank? Oder hast du das ganze vielleicht mit Selects verwechselt? Bei den Datenmengen von denen wir hier reden, solltest du die Abläufe auf die allernötigsten Rechenschritte reduzieren.
Ein paar Denkanstöße, ich gehe einfach mal davon aus du machst DNS-Abfragen:
- Textdateien statt SQL-Datenbanken verwenden
- Domains beim Programmstart in den RAM (keine RAM-Disk!) laden
- Multithreading & adns (
https://www.chiark.greenend.org.uk/~ian/adns/)
- DNS-Abfragen auf die nötigsten Inhalte reduzieren (= Datenmenge)
- nur freigewordene Domains verarbeiten
Die Festplattengeschwindigkeit (sowohl lesend als auch schreibend) sind bei mir völlig irrelevant. Auch um Datenbanken, Overheads, und physikalische Probleme muss ich mir keine Sorgen machen. Mein Flaschenhals ist die Anbindung, weshalb das ganze auch (getestet) auf einem dedizierten Quadcore nicht viel schneller wird.
Wie allen anderen die mich per PM angeschrieben haben pushe ich auch dir gern meine gefundenen Domains testweise zu. Schick mir dazu einfach eine URL (Bsp.: domain.tld/import.php?d=beispiel.de) wohin das ganze gehen soll.
Weitere Fragen beantworte ich dir gern per PM, ich will deinen Thread nicht für mein (Test)Programm missbrauchen.