On Thu, 11 Dec 2003 22:17:03 +0100, "Rudi W." <rudi@balusta.dk> wrote:
>Vi skal lave et statistik system som skal kunne håndtere mange unikke
>sidevisninger og samtidigt give mulighed for statestik helt ned på time
>niveau.
>
>Det vi havde planlagt at gøre var at indsætte en række i en tabel for hver
>sidevisning der bliver udført.
>
>Problemet er så bare at har man 1000 sidevisninger pr dag i en måned
>(30.000) løber det meget hurtigt op til det max. en int datatype kan have
>som er 2,4 milliard.
Meget hurtigt og meget hurtigt .... 30.000 poster på en måned, det giver
80.000 måneder inden du når de 2,4 mia. - det er 6666 år - det vil jeg
nu ikke ligefrem kalde hurtigt
>Det vi logger er ip | host | page | browser | referer | date_time og et par
>andre få detajler.
>
>Vores test viser så at 3000 rækker fylder cirka en MB. dvs en måneds data
>vil fylde 10MB men har man omvendt så 10000 sidevisninger pr dag så begynder
>det at blive en stor DB og snart render man ind i sit max id i tabellen.
Ud fra hukommelsen så er maks-størrelsen for en tabel i mysql (på linux
i hvert fald) også maks-størrelsen for en fil i linux - dvs. 2 eller 4
gb - ca. Det er ca. 200 måneder får maksstørrelsen er nået, hvis det er
2 gb - det er 17 år.
>Nogen forslag til hvad man gør? laver arkiv tabeller? laver opsumerings
>tabeller? eller alternativ struktureringer.
Med det antal poster du snakker om - ikke noget.
(Jaja, jeg har ikke videre erfaring med store datamængder, men jeg kunne
bare ikke lade være med at regne en smule på de tal du opgav her
--
Mads Lie Jensen - mads@gartneriet.dk - ICQ #25478403
http://www.gartneriet.dk
Kig også ind på
http://hjoerringnyplanteskole.dk/