michael bs skrev:
> Hvad er forskellen på om justeringerne foretages det ene eller
> det andet sted?
Det kan jeg ikke forklare kort, så undskyld på forhånd over et
sikkert mega-langt indlæg, som forhåbentlig ikke bliver alt for
forvirrende.
Den data-strøm, som grafikkortet sender afsted til skærmen,
foregår i 8-bit pr. kanal. Altså 256 toneværdier rød, 256 grøn
og 256 blå. Matrox påstår godt nok at have 10-bit/kanal på nogle
af deres grafikkort, men spørgsmålet er, om det kun er internt
eller om det virkelig er hele vejen ud til skærmen. Jeg tror
på det første, og siden Matrox ikke er specielt villige til at
afsløre mere om teknologien, er jeg ret overbevist om, at der
er noget lusk bag deres påstand.
Hvis du begynder at skrue på f.eks. den røde kanal på fronten
af en almindelig fladskærm, er det ikke i fladskærmen du laver
justeringen. Det var det på CRT-skærmene, men sådan er det ikke
med dagens almindelige fladskærme (bortset fra de nyere og meget
dyre LED fladskærme, men det er også en helt anden skærmtype).
På standard-fladskærme er det altså i virkeligheden grafikkortet,
du begynder at skrue i og det betyder, at du nu pludselig ikke
længere har mulighed for op til 256 toneværdier på den røde.
Du har måske minimeret det til 200 eller mindre, afhængig af,
hvor langt du har skruet ned for den røde selvfølgelig.
Resultatet er, at der begynder at opstå det, som man på engelsk
kalder for "banding" eller "posterization", som vel kan kaldes
for farvetab på dansk. Der vil begynde at komme striber i farve-
eller gråtoneforløb, som burde fremstå helt jævne på skærmen,
og det er ikke godt, for jo længere du skruer ned, jo mere vil
du famle i blinde, når du sidder og justerer på små toneforskelle
i dine billeder, for du vil ikke kunne se forskel på dem, selvom
de er der.
Ovenstående problem er årsagen til at de fleste siger, at man
bør lade en fladskærm stå til dens naturlige farvetemperatur
(hvis man da ellers kan finde frem til den!) og stille sin
kalibreringssoftware til "native" i temperaturen (K-værdien),
så softwaren blot registrerer skærmens naturlige temperatur
og koder det ned i skærmprofilen, frem for at man forsøger
at ændre på temperaturen med større eller mindre farvetab til
følge.
Jeg kan godt forstå teorien bag ovenstående og kan også se med
egne øjne, at der er noget om snakken. Problemet er bare, at
stort set alle fladskærme er født med en sindssyg høj luminans
(cd/m²). Min nuværende Dell 2405WFP er født med ca. 227 cd/m²
ved en lysstyrkeindstilling stillet til 50 %, og det er dels
direkte ubehageligt at se på og dels umuligt at matche med et
printet eller trykt output, medmindre man betragter det printede
eller trykte output i skæret af en springende atombombe, og hvor
mange gør lige det? Derfor vil jeg have skærmen ned på en lavere
luminans, så det jeg ser på skærmen, passer bedre med det trykte
eller printede output under realistiske lysforhold, og det kan
man sjældent opnå ved kun at drøne lysstyrkeindstillingen ned
på 0. Man er derfor pisket til at drosle farverne ned også.
Her gælder det så om at forsøge sig lidt frem, for ikke alle
fladskærme klarer sig lige godt ved lavere luminansværdier.
Min forrige Viewsonic VP201s væltede totalt, når den kom ned
under 120 cd/m², så jeg lod den ligge lige over 120.
Min nuværende kan godt gå ned på 100 cd/m² uden at der opstår
vildt meget farvetab, men jeg kan ikke løbe fra at den klarer
sig bedst ved dens "native" luminans på 227 cd/m², som jeg så
bare ikke kan bruge til noget som helst, så jeg må sørge for
at finde en gylden mellemvej imellem så lidt farvetab som muligt
og en acceptabel luminans, og det blev så 100 cd/m² for min
nuværende skærms vedkommende.
Der findes fladskærme, som har en intern LUT, hvilket betyder,
at man faktisk skruer på noget elektronik inde i skærmen, når
man justerer på farverne i skærmmenuen i stedet for at gøre det
i grafikkortet. ColorEdge-serien fra Eizo har interne LUTs på
enten 10 eller 12 bit/kanal. Der er bare stadig det problem, at
de er født med en alt for høj luminans til grafisk brug, så man
er stadig ofte nødt til at skrue ned for dem, men det vil i de
fleste tilfælde ikke resultere i så store farvetab, som hvis
man lod grafikkortet klare justeringen, pga. den større præcision
(højere bit-dybde) i skærmenes LUT.
Nogle har dog målt sig frem til, at det faktisk er bedre at lave
justeringen i et 8-bit grafikkort frem for at gøre det i skærme
med 10- eller 12-bit LUTs, men ingen kan vist forklare hvorfor,
for det burde ikke være sådan. Der er teorier om, at grafikkortene
er længere fremme teknologisk end skærmene, men i det mindste i
teorien burde det være bedre at justere direkte i skærmene, hvis
de vel at mærke har en intern LUT med højere bitdybde end 8-bit.
Endelig findes der så de nye LED fladskærme (Eizo CG210, CG211,
CG220, CG221, Nec/Mitusbishis SpectraView-serie osv.). De har ikke
et baglys som almindelige fladskærme. I stedet har de små dioder,
som man kan skrue op og ned for og på den måde styre både farve-
temperatur og lysstyrke uden at opleve det helt vilde farvetab,
og uden at ændre noget i grafikkortet overhovedet.
De har også typisk en meget stor farveskala (gamut) sammenlignet
med almindelige fladskærme, men det resulterer så i et nyt dilemma,
for dagens grafikkort, styresystemer, farveprofiler, farvestyrings-
motorer (CMM'er), DVI-standarder og billedbehandlingsprogrammer,
forstår kun at behandle 8-bit data pr.kanal fra grafikkort til skærm
og det er for lidt til den slags skærme med meget store farveskaler.
Hvorfor, kan interesserede læse mere om her:
<
http://www.outbackphoto.com/tforum/viewtopic.php?TopicID=1700>.
Bemærk, hvem forfatteren er. Han må vide, hvad han taler om.
> Lysstyrke kontrol det eneste? Det kan da ikke passe. Kan man
> ikke regulere lys, kontrast og rgb farverne individuelt på 3007?
Nej. Kun lysstyrke som i virkeligheden er det eneste, du kan
justere på en almindelig fladskærm, som bliver oplyst af et
(eller to) baglys.
> Jeg har Optix XR. Er der noget med at Eizo-skærmen kan arbejde
> sammen med Optix XR (ikke pro) og selv foretage justeringerne?
Det kræver ColorNavigator-programmet, som følger med i pakken
til ColorEdge-serien. Jeg mener ikke, at det følger med til
S2410W. <
http://www.eizo.com/products/graphics/cn/index.asp>
> Eller det er måske en af forskellene mellem denne Eizo og de
> professionelle colour edge modeller?
Ja blandt andet.
> Er det det, der er forskellen på, om justeringerne foretages
> internt i skærmen fremfor i grafik-driveren?
ColorEdge-serien har en intern LUT som beskrevet ovenfor. Det har
FlexScan-serien ikke.
> Jeg har Asus en7800GTX. Jeg går ud fra at den kan klare opgaven?
Det tør jeg ikke sige, men det må fremgå af manualen, om det har
Dual Link-DVI eller ej.
> Jah...hvem der ikke var en fattigrøv..suk.
Jeg siger det samme :)
--
Hilsen
Madsen