"Troels Lind" <lind@e-box.dk> writes:
> Ligger der nogen begrænsning i antal filer et unix-system (AIX 4.3) kan
> håndtere.
Jeg tror ikke at der er nogen grænse, ud over den begrænsning der
ligger i størelsen af mulige filer (kataloger er bare specielle
filer).
Der er en grænse for hvor effektivt man kan behandle filerne. På Linux
med ext2 laver den vist nok en liniær søgning gennem kataloget når den
skal finde et bestemt filnavn. Det giver altså en køretid på O(n) på
mange filer.
Selv hvis kernen kan håndterer mange filer effektivt (hashing af
filnavne, søgetrærer, whatever), så er der mange steder hvor
user-space programmer laver en
opendir(DIR, $some_dir) || die "can't opendir $some_dir: $!";
@dots = grep { /^\./ && -f "$some_dir/$_" } readdir(DIR);
closedir DIR;
Hvilket giver liniær køretid uanset hvor smart selve filsystemet er.
--
Peter Makholm | Ladies and gentlemen, take my advice, pull down your
peter@makholm.net | pants and slide on the ice
http://hacking.dk | -- Sidney Freedman