so einigermaßen passt's hier ja wohl doch rein, seos sind ja bestimmt meistens auch statistik-junkies... :-)
also ich hab vor nem halben jahr angefangen, mal von meinem hoster gezippte logfiles runterzuladen. seitdem häufen sich schon 3 gb daten und ich weiß noch immer nicht, womit ich die gut analysieren kann.
kann mir mal jemand einen tipp geben?
einen guten Überblick zum Thema findest Du (hoffentlich) in unserem Internet-Lexikon, Stichwort Datenanalyse.
Auf den Folgeseiten findest Du auch Links zu Analyse-Programmen
wer besoffen noch geradeaus fahren kann ist bald reif fürs www.mpu-forum.de
Ich bevorzuge PERL Hervorragend, um sich genau das analyse-prog zu bauen, das man *wirklich* benoetigt dazu noch ein bisschen mysql und fertig ist die logfilenanalyse-software ! Ansonsten : siehe 1
ich hab mir übrigens mal ne testversion von sawmill besorgt. allerdings ist das teil schweinelangsam. das wertet jetzt seit ca. 10 stunden die logs aus und hat gerademal 6 wochen geschafft, 4 monate hat er noch vor sich.
das dauert ja bis ende der woche... das nervt.
ich hab das teil genutzt, bevor es mir zu langsam wurde und ich auf perl umgestiegen bin
Du solltest Dir erstmal nur ein paar MB Logs nehmen, und sawmill die auswerten lassen. dann guckste dir das ergebnis an und suchst dir wirklich die daten raus, die dich auch interessieren.
dann kannst du in den settings hingehen, und das ding so einstellen, dass es nur die von dir gewünschten daten querverbindet/verknuepft/analysiert. da ist irgendwo so ne matrix, in der du das anhacken kannst.