Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

wie aufwändig ist ein eigener Backlink-Crawler

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
Frey
PostRank 3
PostRank 3
Beiträge: 89
Registriert: 15.04.2006, 20:22

Beitrag von Frey » 03.06.2010, 16:15

Hallo Leute ich überlege mir ein eigenen BacklinkIndex anzulegen.

ich würde einen eigen in C++ geschriebenen Crawler auf nem Server + DB auf das Internet jagen.

Bevor ich allerding soetwas realisiere, möchte ich mal erfragen wie aufwändig die Datenspeicherung werden wird.

Ich würde in meine Datenbank nur die Quell und die Ziel Domain speichern.

das wären dann so ca. 40 Byte pro Record bzw. Backlink.

Mit 1GB könnt ich dann 25.000.000 Backlinks halten.
sagen wir mal ich hab ne DB mit 80GB zu Verfügung. meint Ihr das richt um einen ordentlichen Index aufzubauen?

MfG
Frey