Bjarke Hansen skrev:
> Meget må man høre for.. Men hvor gammelt skal lige et grafikkort
> være, hvis det ikke kan vise mere end 8bit?
Et 16 bit RGB-billede betyder normalt at der er 16 bit pr. kanal.
Altså 48 bit ialt. 65536 nuancer rød, 65536 nuancer grøn og 65536
nuancer blå. Du finder hverken grafikkort eller skærme i dag som
kan gengive så mange forskellige nuancer og hvis du gjorde så
ville dit øje alligevel ikke kunne se den store forskel på et 24-
og et 48-bit-billede.
Man plejer at sige at 24 bit (altså 8 bit eller 256 forskellige
nuancer pr. kanal) er maksimum for hvad det menneskelige øje kan
opfange. Det er det man normalt kalder for ægte farver.
Selv blandt de professionelle farveguruer kører der en vedvarende
debat om hvorvidt man skal redigere sine billeder i 16 bit eller i
8 bit (pr. kanal) og der er aldrig rigtigt kommet tørre facts på
bordet. Det eneste man er kommet frem til er at histogrammerne i
f.eks. Photoshop ser pænere og jævnere ud efter en redigering i
16 bit sammenlignet med den samme redigering i 8 bit, men når det
menneskelige øje alligevel ikke kan se forskel, så kan man begynde
at diskutere om det virkelig er den ekstra filstørrelse værd at
gemme og redigere sine billeder i 16 bit.
Læs evt. Dan Margulis' testforsøg her:
<
http://www.ledet.com/margulis/ACT_postings/ColorCorrection/ACT-16-bit-2002.htm>
Dan Margulis har jeg stor respekt for og vil betegne ham som en
af de største farveguruer pt. men som du/I ser nederst på siden
så er "de lærde" meget uenige.
--
Med venlig hilsen
Madsen.