|
| Hvilket grafikkort skal jeg vælge Fra : enrico |
Dato : 28-11-05 12:53 |
|
Jeg skal bruge et grafikkort til Photoshop 2D billeder. Ingen TV, Video
eller 3D grafik.
Kortet, jeg ahr fået med maskinen er vistfor dårligt. (ATI Radeon X300) Jeg
får skygger på billederne i høj opløsning.
Matrox laver vistnogle gode kort, men jeg har ikke en k*** begreb om
grafikkort, så forhandleren kan sælge mig hvad som helst :)
Derfor beder jeg om lidt hjælp til valg af kort, tak.
-enrico
| |
Ulrik Løye (28-11-2005)
| Kommentar Fra : Ulrik Løye |
Dato : 28-11-05 13:33 |
|
enrico wrote:
> Jeg skal bruge et grafikkort til Photoshop 2D billeder. Ingen TV, Video
> eller 3D grafik.
>
> Kortet, jeg ahr fået med maskinen er vistfor dårligt. (ATI Radeon X300) Jeg
> får skygger på billederne i høj opløsning.
>
> Matrox laver vistnogle gode kort, men jeg har ikke en k*** begreb om
> grafikkort, så forhandleren kan sælge mig hvad som helst :)
>
> Derfor beder jeg om lidt hjælp til valg af kort, tak.
Skygger på skærmen ved høj opløsning kan bl.a. skyldes kablet eller
signalet.
Hvilken opløsning kører du?
Og bruger du vga (15 pin) eller dvi (40 pin) stikket?
/u
| |
enrico (28-11-2005)
| Kommentar Fra : enrico |
Dato : 28-11-05 14:07 |
|
Jeg bruger 15 pin stikket og kører 1200x1600 på en Sony Trinitron.
Skærmen er imidlertid tre år, og jeg er i tvivl om det er kortet eller
skærmen (nu også stikket) der er problemet.
Jeg har planlagt en udskiftning af skærmen til en Lacie 120
http://www.lacie.com/dk/products/product.htm?pid=10683
Først vardet dog rart at vide, om kortet er skyld i skyggerne.
-enrico
"Ulrik Løye" <ulrik@loye.net> skrev i en meddelelse
news:438af963$0$8847$edfadb0f@dread14.news.tele.dk...
> enrico wrote:
>> Jeg skal bruge et grafikkort til Photoshop 2D billeder. Ingen TV, Video
>> eller 3D grafik.
>>
>> Kortet, jeg ahr fået med maskinen er vistfor dårligt. (ATI Radeon X300)
>> Jeg får skygger på billederne i høj opløsning.
>>
>> Matrox laver vistnogle gode kort, men jeg har ikke en k*** begreb om
>> grafikkort, så forhandleren kan sælge mig hvad som helst :)
>>
>> Derfor beder jeg om lidt hjælp til valg af kort, tak.
>
> Skygger på skærmen ved høj opløsning kan bl.a. skyldes kablet eller
> signalet.
>
> Hvilken opløsning kører du?
>
> Og bruger du vga (15 pin) eller dvi (40 pin) stikket?
>
> /u
| |
Brian Lund (28-11-2005)
| Kommentar Fra : Brian Lund |
Dato : 28-11-05 20:37 |
|
> Jeg bruger 15 pin stikket og kører 1200x1600 på en Sony Trinitron.
Er stikket tilsluttet på grafikkortet med et fladkabel, eller er det loddet
direkte på kortet?
> Skærmen er imidlertid tre år, og jeg er i tvivl om det er kortet eller
> skærmen (nu også stikket) der er problemet.
>
> Jeg har planlagt en udskiftning af skærmen til en Lacie 120
> http://www.lacie.com/dk/products/product.htm?pid=10683
>
> Først vardet dog rart at vide, om kortet er skyld i skyggerne.
Svært at sige ;) - Prøv at låne dig til en skærm som du ved kan klare
opløsningen, hvis det altså kan lade sig gøre...
Brian
| |
Martin Sørensen (28-11-2005)
| Kommentar Fra : Martin Sørensen |
Dato : 28-11-05 21:05 |
|
> Jeg bruger 15 pin stikket og kører 1200x1600 på en Sony Trinitron.
> Skærmen er imidlertid tre år, og jeg er i tvivl om det er kortet eller
> skærmen (nu også stikket) der er problemet.
Jeg har i de sidste 6 år kørt 1600x1200 og har aldrig haft problemer med
uskarpt billed eller skygger med mine ATI grafikkort, helt tilbage til et
Rage 128, som også havde god billedkvalitet. Jeg har oplevet skygger med
diverse ældre Nvidia kort, dog ikke de nyere.
> Jeg har planlagt en udskiftning af skærmen til en Lacie 120
> http://www.lacie.com/dk/products/product.htm?pid=10683
> Først vardet dog rart at vide, om kortet er skyld i skyggerne.
Med den skærm kan du vel køre DVI, og så slipper du ihvertfald for de
problemer.
Med et ordentligt VGA-kabel kan jeg på min Samsung 214T skærm (også
1600x1200) tilsluttet et Radeon 9800 Pro ikke se forskel på VGA og DVI
billedkvaliteten, men det kan jeg tydeligt hvis jeg bruger det medfølgende
(tynde) VGA-kabel. Det vidner om at ATI kortets VGA-udgang er af rimeligt
fornuftig kvalitet.
--
signing off.. Martin Sørensen
| |
Ulrik Løye (29-11-2005)
| Kommentar Fra : Ulrik Løye |
Dato : 29-11-05 07:55 |
|
"Martin Sørensen" <mos@laxity.invalid> wrote in message
news:438b62d9$0$78286$157c6196@dreader1.cybercity.dk...
>> Jeg bruger 15 pin stikket og kører 1200x1600 på en Sony Trinitron.
>> Skærmen er imidlertid tre år, og jeg er i tvivl om det er kortet eller
>> skærmen (nu også stikket) der er problemet.
>
> Jeg har i de sidste 6 år kørt 1600x1200 og har aldrig haft problemer med
> uskarpt billed eller skygger med mine ATI grafikkort, helt tilbage til et
> Rage 128, som også havde god billedkvalitet. Jeg har oplevet skygger med
> diverse ældre Nvidia kort, dog ikke de nyere.
>
>> Jeg har planlagt en udskiftning af skærmen til en Lacie 120
>> http://www.lacie.com/dk/products/product.htm?pid=10683
>> Først vardet dog rart at vide, om kortet er skyld i skyggerne.
>
> Med den skærm kan du vel køre DVI, og så slipper du ihvertfald for de
> problemer.
> Med et ordentligt VGA-kabel kan jeg på min Samsung 214T skærm (også
> 1600x1200) tilsluttet et Radeon 9800 Pro ikke se forskel på VGA og DVI
> billedkvaliteten, men det kan jeg tydeligt hvis jeg bruger det medfølgende
> (tynde) VGA-kabel. Det vidner om at ATI kortets VGA-udgang er af rimeligt
> fornuftig kvalitet.
Så snart man kommer op på 1600x1200 eller højere stiger risikoen for skygger
og det er som regel kablets afskærmning som er styrende for hvor følsomt
udstyret er.
VGA eller DVI kablet er ikke et sted man skal spare, hvis man planlægger at
køre >1600x1200 eller med kabler længere end 1,8m.
Hvis Enrico alligevel vil skifte skærmen så vent med at købe et kabel til du
har set om den nye skærm med dets nye kabel har samme problem; umiddelbart
tror jeg LaCie bruger fornuftige kabler; det er som regel kun value
produkter som anvender de dårligste kabler.
/u
| |
enrico (29-11-2005)
| Kommentar Fra : enrico |
Dato : 29-11-05 11:19 |
|
Jeg takker for de mange gode bud. Jeg afventer nu skærmen, der er i
restordre. Så får jeg se, om der er skygger på den også.
Er der nogen, der kan forklare forskellen på VGA og DVI på almindeligt dansk
:)
-enrico
| |
Ulrik Løye (29-11-2005)
| Kommentar Fra : Ulrik Løye |
Dato : 29-11-05 12:42 |
|
enrico wrote:
> Jeg takker for de mange gode bud. Jeg afventer nu skærmen, der er i
> restordre. Så får jeg se, om der er skygger på den også.
>
> Er der nogen, der kan forklare forskellen på VGA og DVI på almindeligt dansk
> :)
VGA er egentlig en gammel betegnelse fra dengang i '87 hvor IBM
langcerede det. Det står for video graphics array og er et analogt
signal og havde oprindelig en opløsning på 640x480 i 16 farver eller
320x200 i 256 farver. Kørte man i tekst mode var opløsningen svimlende
720x400. Siden er der som bekendt kommet en række forbedringer af
interfacet således at større opløsninger og flere farver er muligt (fx
svga, xga, sxga og uxga som du kører).
DVI står for digital visual interface hvor signalet i kablet er
digitalt. Med andre ord foregår der en analog til digital konvertering i
grafikkortet og nogen gange også i skærmen. Ellers minder DVI ret meget
om VGA dog med noget bedre mulighed for at køre højere opløsninger bl.a.
pga. dual link og mindre følsomhed overfor signalforstyrring.
/u
| |
enrico (29-11-2005)
| Kommentar Fra : enrico |
Dato : 29-11-05 13:19 |
|
"Ulrik Løye" <ulrik@loye.net> skrev i en meddelelse
news:438c3ef1$0$8843$edfadb0f@dread14.news.tele.dk...
> DVI står for digital visual interface hvor signalet i kablet er digitalt.
> Med andre ord foregår der en analog til digital konvertering i
> grafikkortet og nogen gange også i skærmen.
Her er det så man spørger sig selv:
Hvordan konverterer kortet signalerne?
Jeg arbejder med kritisk farvebehandling (Photoshop) og har en kalibreret
skærm og farveprofiler.
Hvilken af kortets 2 udgange skal man da bruge for at få de mest korrekte
farver? Det ser jo ud til, at det kræver et godt kort, hvis farverne skal
oversættes best muligt, eller er DVI udgangen i alle tilfælde bedre end den
gamle, analoge oversættelse af signalerne?
Håber, spørgsmålet er klart.
-enrico
| |
Ulrik Løye (29-11-2005)
| Kommentar Fra : Ulrik Løye |
Dato : 29-11-05 13:36 |
|
enrico wrote:
> "Ulrik Løye" <ulrik@loye.net> skrev i en meddelelse
> news:438c3ef1$0$8843$edfadb0f@dread14.news.tele.dk...
>
>
>>DVI står for digital visual interface hvor signalet i kablet er digitalt.
>>Med andre ord foregår der en analog til digital konvertering i
>>grafikkortet og nogen gange også i skærmen.
>
>
>
> Her er det så man spørger sig selv:
> Hvordan konverterer kortet signalerne?
>
> Jeg arbejder med kritisk farvebehandling (Photoshop) og har en kalibreret
> skærm og farveprofiler.
>
> Hvilken af kortets 2 udgange skal man da bruge for at få de mest korrekte
> farver? Det ser jo ud til, at det kræver et godt kort, hvis farverne skal
> oversættes best muligt, eller er DVI udgangen i alle tilfælde bedre end den
> gamle, analoge oversættelse af signalerne?
Uden at ville lægge hovedet på blokken har jeg indtryk af at den primære
forskel på vga og dvi er at signalet bliver mindre forstyrret; dvs.
billedet på skærmen står skarpere selvom vi er oppe i høje opløsninger.
Hvis det er vigtigt at farverne er præcise er der en række faktorer som
skal være på plads; Man skal bruge gode kabler, en god skærm (trinitron
crt eller og s-ips tft panel) et fornuftigt skærmkort (her tænkes ikke
nødvendigvis på et hurtigt 3d kort) og en god kalibrering af hele
molevitten.
Det er min oplevelse at ved opløsninger op til og med 1280x1024 vil man
ikke kunne se forskel på vga og dvi, hvis man sørger for
kvalitetsprodukter og god kalibrering; herefter begynder man at kunne se
DVIs fordele hvad angår mindre signalfølsomhed.
Mange glemmer desværre kablets vigtighed i denne sammenhæng; hvilket jo
er en skam når de har brugt >10.000 kr på skærm og grafikkort men ikke
lige er opmærksom på at et 500 kr kabel kan gøre underværker.
/u
| |
enrico (29-11-2005)
| Kommentar Fra : enrico |
Dato : 29-11-05 14:02 |
|
Sikke klog, man bliver :)
Tak for det Ulrik!
-e
| |
Thomas G. Madsen (29-11-2005)
| Kommentar Fra : Thomas G. Madsen |
Dato : 29-11-05 21:28 |
|
enrico skrev:
> Hvilken af kortets 2 udgange skal man da bruge for at få de mest
> korrekte farver?
Jeg sidder pt. med en Dell 2405FPW, som er koblet til min
Windows-computer via VGA og til min Mac via DVI, og hvis jeg
sammenligner farveprofilerne fra de to systemer, så er de stort
set identiske (profilerne er lavet med en EyeOne Display 2 fra
GretagMacbeth), så man kan efter min mening ikke sige, at det
ene giver mere korrekte farver end det andet.
DVI-signalet giver bare som regel et mere roligt og skarpere
billede fordi signalet er digitalt hele vejen fra grafikkortet til
skærmen, men jeg må nu sige at være ret overrasket over, hvor lidt
forskel der egentlig er på det analoge og det digitale signal fra
mit Asus Radeon X800 Pro grafikkort i Windows-computeren, og det
selv i en opløsning på 1920 x 1200, som er 2405FPWs opløsning.
Det analoge signal fra grafikkortet i Mac'en er derimod så dårligt,
at det ikke engang kan trække en fladskærm i 1600 x 1200, så det
kommer også meget an på kvaliteten af grafikkortet (kortet i min
Mac er et Nvidia GeForce FX 5200 Ultra).
--
Hilsen
Madsen
| |
|
|