wie aufwändig ist ein eigener Backlink-Crawler
Verfasst: 03.06.2010, 16:15
Hallo Leute ich überlege mir ein eigenen BacklinkIndex anzulegen.
ich würde einen eigen in C++ geschriebenen Crawler auf nem Server + DB auf das Internet jagen.
Bevor ich allerding soetwas realisiere, möchte ich mal erfragen wie aufwändig die Datenspeicherung werden wird.
Ich würde in meine Datenbank nur die Quell und die Ziel Domain speichern.
das wären dann so ca. 40 Byte pro Record bzw. Backlink.
Mit 1GB könnt ich dann 25.000.000 Backlinks halten.
sagen wir mal ich hab ne DB mit 80GB zu Verfügung. meint Ihr das richt um einen ordentlichen Index aufzubauen?
MfG
Frey
ich würde einen eigen in C++ geschriebenen Crawler auf nem Server + DB auf das Internet jagen.
Bevor ich allerding soetwas realisiere, möchte ich mal erfragen wie aufwändig die Datenspeicherung werden wird.
Ich würde in meine Datenbank nur die Quell und die Ziel Domain speichern.
das wären dann so ca. 40 Byte pro Record bzw. Backlink.
Mit 1GB könnt ich dann 25.000.000 Backlinks halten.
sagen wir mal ich hab ne DB mit 80GB zu Verfügung. meint Ihr das richt um einen ordentlichen Index aufzubauen?
MfG
Frey