|
| Lightroom 2 frigivet Fra : Mogens Hansen |
Dato : 29-07-08 06:30 |
| | |
winddiesel (29-07-2008)
| Kommentar Fra : winddiesel |
Dato : 29-07-08 00:28 |
| | |
Mogens Hansen (29-07-2008)
| Kommentar Fra : Mogens Hansen |
Dato : 29-07-08 08:14 |
|
"Mogens Hansen" <mogens_h@dk-online.dk> wrote in message
news:488eaace$0$90266$14726298@news.sunsite.dk...
> http://www.adobe.com/products/photoshoplightroom/
Lidt hurtige, første indtryk:
Umiddelbart installerer det fint under XP 32 bit (32 bit Lightroom) og Vista
64 bit (64 bit Lightroom), og upgraderer databasen.
Under Vista 64 ser det ud som om den er bedre til at bruge mange CPU'er end
Lightroom 1.4. Om det er pga. Lightroom 2 eller 64 bit ved jeg ikke.
Den belaster 8 CPU'er omkring 70% i snit og når op omkring 100% (og ned på
20%) til tider, ved generering af 1:1 Preview. Den anvender også rask væk
mere 2 GB RAM (ud af 16GB tilgængeligt).
Jeg har ikke noget indtryk af hvordan perfomance er i forhold til Lightroom
1.4
--
Venlig hilsen
Mogens Hansen
| |
Soren 'theDiver' Rei~ (29-07-2008)
| Kommentar Fra : Soren 'theDiver' Rei~ |
Dato : 29-07-08 09:14 |
|
Mogens Hansen wrote:
> "Mogens Hansen" <mogens_h@dk-online.dk> wrote in message
> news:488eaace$0$90266$14726298@news.sunsite.dk...
>> http://www.adobe.com/products/photoshoplightroom/
>
> Lidt hurtige, første indtryk:
>
> Umiddelbart installerer det fint under XP 32 bit (32 bit Lightroom) og Vista
> 64 bit (64 bit Lightroom), og upgraderer databasen.
>
> Under Vista 64 ser det ud som om den er bedre til at bruge mange CPU'er end
> Lightroom 1.4. Om det er pga. Lightroom 2 eller 64 bit ved jeg ikke.
Det lyder godt den kan bruge CPU'erne nu.
Det har umiddelbart ikke noget at gøre med de 64 bit, det har betydning
for max mængde af ram.
At den bruger alle CPU'er skyldes ganske enkelt de har programmeret den
til at gøre det.
--
Med venlig hilsen / Best regards
Søren Reinke, MSDT #505926, TDI Trimix
www.Dykkeren.dk
Dive blog with a large galleri
| |
Mogens Hansen (29-07-2008)
| Kommentar Fra : Mogens Hansen |
Dato : 29-07-08 09:43 |
|
"Soren 'theDiver' Reinke" <soren@REMOVEreinke.dk> wrote in message
news:488ed1a5$0$14202$9a6e19ea@unlimited.newshosting.com...
[8<8<8<]
> Det har umiddelbart ikke noget at gøre med de 64 bit, det har betydning
> for max mængde af ram.
Jeg er med på hvad forskellen på 32 bit og 64 bit programmer er.
Jeg har ikke prøvet 32 bit Ligthroom 2.0 på den 8 kernede maskine.
Det at den kan bruge mere RAM, kan godt betyde at det er nemmere at holde
flere kerner beskæftiget.
Opgaven, som jeg gav Lightroom 2.0, med at generere 1:1 Previews på nogle
hundrede billeder, er i teorien trivielt paralleliserbar.
Det er nærliggende at forestille sig at man løber ind i diverse flaskehalse,
såsom for lidt RAM i 32 bit, disk tilgang osv. hvis man prøver at generere
dem alle parallelt på een gang.
Det således muligt at der er forskel på strategien for parallelisering i 32
bit og 64 bit - jeg ved det ikke.
> At den bruger alle CPU'er skyldes ganske enkelt de har programmeret den
> til at gøre det.
Jep - den er jeg med på.
Lightroom 1.4 var vanskellig at få til at bruge mere end 4 CPU'er på den
maskine.
--
Venlig hilsen
Mogens Hansen
| |
Preben Holm (29-07-2008)
| Kommentar Fra : Preben Holm |
Dato : 29-07-08 09:50 |
|
> Opgaven, som jeg gav Lightroom 2.0, med at generere 1:1 Previews på nogle
> hundrede billeder, er i teorien trivielt paralleliserbar.
> Det er nærliggende at forestille sig at man løber ind i diverse flaskehalse,
> såsom for lidt RAM i 32 bit, disk tilgang osv. hvis man prøver at generere
> dem alle parallelt på een gang.
> Det således muligt at der er forskel på strategien for parallelisering i 32
> bit og 64 bit - jeg ved det ikke.
Hvis du anmoder om at lave 1:1 preview på et enkelt billede - hvordan
fordeler performance forbruget sig så?
/ Preben
| |
Mogens Hansen (29-07-2008)
| Kommentar Fra : Mogens Hansen |
Dato : 29-07-08 09:58 |
|
"Preben Holm" <64bitNOnoSPAMno@mailme.dk> wrote in message
news:488ed9b2$0$90266$14726298@news.sunsite.dk...
[8<8<8<]
> Hvis du anmoder om at lave 1:1 preview på et enkelt billede - hvordan
> fordeler performance forbruget sig så?
Når jeg laver 1:1 Preview af en enkelt RAW fil fra Canon 1Ds mkII, kan jeg
at Lightroom 2.0 paralleliserer opgaven.
I Task Manageren kan jeg se at den laver 8 tråde, og når op på ca. 80% CPU
belastning - men det går stærkt, så det er svært at se.
--
Venlig hilsen
Mogens Hansen
| |
Preben Holm (29-07-2008)
| Kommentar Fra : Preben Holm |
Dato : 29-07-08 10:46 |
|
Mogens Hansen skrev:
> "Preben Holm" <64bitNOnoSPAMno@mailme.dk> wrote in message
> news:488ed9b2$0$90266$14726298@news.sunsite.dk...
>
> [8<8<8<]
>> Hvis du anmoder om at lave 1:1 preview på et enkelt billede - hvordan
>> fordeler performance forbruget sig så?
>
> Når jeg laver 1:1 Preview af en enkelt RAW fil fra Canon 1Ds mkII, kan jeg
> at Lightroom 2.0 paralleliserer opgaven.
> I Task Manageren kan jeg se at den laver 8 tråde, og når op på ca. 80% CPU
> belastning - men det går stærkt, så det er svært at se.
>
Okay - det lyder som en fornuftig form for parallelisering så.
Men er der ikke også noget med at de ville til at udnytte Cuda (NVidia
gpu programmering) eller er det Aperture eller noget helt andet?
/ Preben
| |
Mogens Hansen (29-07-2008)
| Kommentar Fra : Mogens Hansen |
Dato : 29-07-08 10:56 |
|
"Preben Holm" <64bitNOnoSPAMno@mailme.dk> wrote in message
news:488ee6ed$0$90271$14726298@news.sunsite.dk...
[8<8<8<]
> Men er der ikke også noget med at de ville til at udnytte Cuda (NVidia gpu
> programmering) eller er det Aperture eller noget helt andet?
Det har jeg kun set omtalt for den kommende Photoshop (CS4 ?), og som jeg
har forstået det er det til noget 3D rendering.
--
Venlig hilsen
Mogens Hansen
| |
Preben Holm (30-07-2008)
| Kommentar Fra : Preben Holm |
Dato : 30-07-08 10:09 |
|
>> Men er der ikke også noget med at de ville til at udnytte Cuda (NVidia gpu
>> programmering) eller er det Aperture eller noget helt andet?
>
> Det har jeg kun set omtalt for den kommende Photoshop (CS4 ?), og som jeg
> har forstået det er det til noget 3D rendering.
En annonce fra Apple:
"Kraftværk til billedbehandling. Tilføj NVIDIA GeForce 8800 GS
(ekstraudstyr), og opnå 2,2 gange hurtigere billedbehanding.
24" iMac"
Hvad mener de med det så? Tror der er et eller andet der allerede kan
udnytte grafikkortet som ekstra processor. Grafikkortet sammen med Cuda
er jo fantastisk til floating point operationer, hvor der ikke branches
i koden - perfekt til billeder. En speed up på 2,2 lyder dog ikke som meget.
| |
Mogens Hansen (30-07-2008)
| Kommentar Fra : Mogens Hansen |
Dato : 30-07-08 10:22 |
|
"Preben Holm" <64bitNOnoSPAMno@mailme.dk> wrote in message
news:48902fbd$0$90273$14726298@news.sunsite.dk...
[8<8<8<]
> En annonce fra Apple:
> "Kraftværk til billedbehandling. Tilføj NVIDIA GeForce 8800 GS
> (ekstraudstyr), og opnå 2,2 gange hurtigere billedbehanding.
> 24" iMac"
>
> Hvad mener de med det så?
Aner det ikke.
Jeg kan huske Apple annoncer som gjorde meget ud af at redegøre for at
PowerPC processorer var hurtigere end Intel....
--
Venlig hilsen
Mogens Hansen
| |
Thomas von Hassel (30-07-2008)
| Kommentar Fra : Thomas von Hassel |
Dato : 30-07-08 13:14 |
|
Preben Holm <64bitNOnoSPAMno@mailme.dk> wrote:
> >> Men er der ikke også noget med at de ville til at udnytte Cuda (NVidia gpu
> >> programmering) eller er det Aperture eller noget helt andet?
> >
> > Det har jeg kun set omtalt for den kommende Photoshop (CS4 ?), og som jeg
> > har forstået det er det til noget 3D rendering.
>
> En annonce fra Apple:
> "Kraftværk til billedbehandling. Tilføj NVIDIA GeForce 8800 GS
> (ekstraudstyr), og opnå 2,2 gange hurtigere billedbehanding.
> 24" iMac"
>
> Hvad mener de med det så? Tror der er et eller andet der allerede kan
> udnytte grafikkortet som ekstra processor. Grafikkortet sammen med Cuda
> er jo fantastisk til floating point operationer, hvor der ikke branches
> i koden - perfekt til billeder. En speed up på 2,2 lyder dog ikke som meget.
Apple har allerede nu funktioner som accelerere visse operationer i GPU
som normalt håndteres af CPU'en ...
/thomas
| |
Soren 'theDiver' Rei~ (30-07-2008)
| Kommentar Fra : Soren 'theDiver' Rei~ |
Dato : 30-07-08 13:24 |
|
Preben Holm wrote:
>>> Men er der ikke også noget med at de ville til at udnytte Cuda
>>> (NVidia gpu programmering) eller er det Aperture eller noget helt andet?
>>
>> Det har jeg kun set omtalt for den kommende Photoshop (CS4 ?), og som
>> jeg har forstået det er det til noget 3D rendering.
>
> En annonce fra Apple:
> "Kraftværk til billedbehandling. Tilføj NVIDIA GeForce 8800 GS
> (ekstraudstyr), og opnå 2,2 gange hurtigere billedbehanding.
> 24" iMac"
>
> Hvad mener de med det så? Tror der er et eller andet der allerede kan
> udnytte grafikkortet som ekstra processor. Grafikkortet sammen med Cuda
> er jo fantastisk til floating point operationer, hvor der ikke branches
> i koden - perfekt til billeder. En speed up på 2,2 lyder dog ikke som
> meget.
Det er såmænd bare Apple der forsøger at koge suppe på andres arbejde.
Det har nemlig intet med Apple at gøre at det bliver hurtigere, det er
Adobe der har integreret brugen af Grafik processoren i deres
programmer. Det samme gør sig med sikkerhed også gældne på Windows.
--
Med venlig hilsen / Best regards
Søren Reinke, MSDT #505926, TDI Trimix
www.Dykkeren.dk
Dive blog with a large galleri
| |
Thomas G. Madsen (30-07-2008)
| Kommentar Fra : Thomas G. Madsen |
Dato : 30-07-08 10:37 |
|
Preben Holm skrev:
> "Kraftværk til billedbehandling. Tilføj NVIDIA GeForce 8800 GS
> (ekstraudstyr), og opnå 2,2 gange hurtigere billedbehanding.
> 24" iMac"
>
> Hvad mener de med det så? Tror der er et eller andet der
> allerede kan udnytte grafikkortet som ekstra processor.
Der findes efter sigende allerede en betaversion af Photoshop med
CUDA-understøttelse og det er ikke kun 3D-rendering, der bliver
speedet op, hvis man skal tro på:
< http://www.bit-tech.net/news/2008/05/28/adobe-to-integrate-gpu-acceleration-into-photoshop/1>
--
Hilsen
Madsen
| |
Hans Kruse (30-07-2008)
| Kommentar Fra : Hans Kruse |
Dato : 30-07-08 10:46 |
|
"Thomas G. Madsen" <nospam@madsen.tdcadsl.dk> wrote in message
news:g6pjoh.4rk.1@thomasgmadsen.dk...
>
> Der findes efter sigende allerede en betaversion af Photoshop med
> CUDA-understøttelse og det er ikke kun 3D-rendering, der bliver
> speedet op, hvis man skal tro på:
> < http://www.bit-tech.net/news/2008/05/28/adobe-to-integrate-gpu-acceleration-into-photoshop/1>
>
Som jeg læser det, så er det funktioner, der er udviklet i grafikkort (altså
funktioner der kører i hardware isf. software algorimer udført af en
almindelig cpu uden specialinstruktioner indenfor grafik), som Photoshop
kunne drage nytte af. Det giver jo mening, men hagen er så kun at som jeg
læser det her så er det en proprietary sammenkobling af Nvidia
grafikfunktioner med Photoshop. Men man kan selvfølgelig tænke sig at Adobe
folkene er smarte nok til at lave en lagdelt arkitektur, der gør det muligt
at lave drivere til forskellige grafikkort med samme funktionalitet og med
fall back ind i normal cpu behandling, hvor grafikkortet mangler features.
--
Med venlig hilsen/Kind regards,
Hans Kruse www.hanskruse.com, http://hans-kruse.blogspot.com/
| |
Preben Holm (30-07-2008)
| Kommentar Fra : Preben Holm |
Dato : 30-07-08 11:12 |
|
> Som jeg læser det, så er det funktioner, der er udviklet i grafikkort (altså
> funktioner der kører i hardware isf. software algorimer udført af en
> almindelig cpu uden specialinstruktioner indenfor grafik), som Photoshop
> kunne drage nytte af. Det giver jo mening, men hagen er så kun at som jeg
> læser det her så er det en proprietary sammenkobling af Nvidia
> grafikfunktioner med Photoshop. Men man kan selvfølgelig tænke sig at Adobe
> folkene er smarte nok til at lave en lagdelt arkitektur, der gør det muligt
> at lave drivere til forskellige grafikkort med samme funktionalitet og med
> fall back ind i normal cpu behandling, hvor grafikkortet mangler features.
Jeg læser det så ikke på samme måde. Cuda er blevet meget populært
indenfor det seneste års tid og det er "meget let" (i forhold til f.eks.
en playstation) at programmere.
Fordelen er at du har f.eks. 128 pipelines som arbejder samtidigt og kan
derfor lave 128 samtidige multiplikationer. Så selvom du måske kun har
500MHz på bussen og GPU'en er der væsentlig mere floating point
beregningskraft i forhold til CPU'en.
Branches er derimod ikke særlig effektive og kan ødelægge performance.
Set i forhold til den almindelige CPU er GPU'en bedre til f.eks.
maskeoperationer (2 dimensionelle foldninger).
Det ville være genialt hvis dette var implementeret i Lightroom, men det
lader så ikke til, at det forholder sig sådan.
Har en kollega som har leget med GPU programmering, og jeg kommer måske
også selv til det. Et utroligt spændende emne.
/ Preben
| |
Hans Kruse (30-07-2008)
| Kommentar Fra : Hans Kruse |
Dato : 30-07-08 11:19 |
|
"Preben Holm" <64bitNOnoSPAMno@mailme.dk> wrote in message
news:48903e76$0$90275$14726298@news.sunsite.dk...
>
> Jeg læser det så ikke på samme måde. Cuda er blevet meget populært
> indenfor det seneste års tid og det er "meget let" (i forhold til f.eks.
> en playstation) at programmere.
Jeg mente ikke de var svært, men havde fornemmelsen at vi var ude i et
område, hvor der ikke var standarder og kun dominerende leverandører.
> Fordelen er at du har f.eks. 128 pipelines som arbejder samtidigt og kan
> derfor lave 128 samtidige multiplikationer. Så selvom du måske kun har
> 500MHz på bussen og GPU'en er der væsentlig mere floating point
> beregningskraft i forhold til CPU'en.
>
> Branches er derimod ikke særlig effektive og kan ødelægge performance. Set
> i forhold til den almindelige CPU er GPU'en bedre til f.eks.
> maskeoperationer (2 dimensionelle foldninger).
Ja, helt klart, at der kan være fordele i at bruge en specialprocessor ift.
en generel.
> Det ville være genialt hvis dette var implementeret i Lightroom, men det
> lader så ikke til, at det forholder sig sådan.
Hvilke operationer i Lightroom ville du mene kunne drage fordel heraf?
> Har en kollega som har leget med GPU programmering, og jeg kommer måske
> også selv til det. Et utroligt spændende emne.
>
Uden tvivl selvom det er mange år siden jeg programmerede, men det var
ganske sjovt og jeg lavede nogle sjove ting. Som f.eks. program og
applikationsgeneratorer før der fandtes produkter på det område.
--
Med venlig hilsen/Kind regards,
Hans Kruse www.hanskruse.com, http://hans-kruse.blogspot.com/
| |
Preben Holm (30-07-2008)
| Kommentar Fra : Preben Holm |
Dato : 30-07-08 18:44 |
|
> Jeg mente ikke de var svært, men havde fornemmelsen at vi var ude i et
> område, hvor der ikke var standarder og kun dominerende leverandører.
Ja, okay.
>> Det ville være genialt hvis dette var implementeret i Lightroom, men det
>> lader så ikke til, at det forholder sig sådan.
>
> Hvilke operationer i Lightroom ville du mene kunne drage fordel heraf?
Danne previews, export, anvendelse af farveprofiler, rotationer,
korrektion af objektivets forvrængning (det må da komme i LR på et
tidspunkt), sharpen operationer o.lign.
| |
Thomas G. Madsen (30-07-2008)
| Kommentar Fra : Thomas G. Madsen |
Dato : 30-07-08 13:15 |
|
Hans Kruse skrev:
> [..] men hagen er så kun at som jeg læser det her så er det en
> proprietary sammenkobling af Nvidia grafikfunktioner med
> Photoshop.
Min tvivl lige pt. er også, om Photoshop CS4 vil have så store
hastighedsforbedringer på CUDA-kompatible GPUer fra Nvidia
sammenlignet med f.eks. AMD/ATIs GPUer, at det ville være dumt
andet at købe Nvidia. Jeg står netop over for en udskiftning at
mit grafikkort og er meget i tvivl, om det skal være med Nvidia
eller AMD GPU pga. dette.
> Men man kan selvfølgelig tænke sig at Adobe folkene er smarte
> nok til at lave en lagdelt arkitektur, der gør det muligt at
> lave drivere til forskellige grafikkort med samme funktionalitet
> og med fall back ind i normal cpu behandling, hvor grafikkortet
> mangler features.
Det var at håbe i hvert tilfælde, men jeg har pt. min tvivl.
AMD har vel pt. intet, som skal konkurrere med CUDA, har de?
Jeg kan dog ikke forestille mig, at Adobe i den grad kunne finde
på at favorisere Nvidia, men man skal vel aldrig sige aldrig.
--
Hilsen
Madsen
| |
Thomas G. Madsen (30-07-2008)
| Kommentar Fra : Thomas G. Madsen |
Dato : 30-07-08 13:29 |
|
Thomas G. Madsen skrev:
> AMD har vel pt. intet, som skal konkurrere med CUDA, har de?
En Google-søgning afslører noget ved navn Brook+, så det har de
tilsyneladende.
--
Hilsen
Madsen
| |
Preben Holm (30-07-2008)
| Kommentar Fra : Preben Holm |
Dato : 30-07-08 18:42 |
|
Thomas G. Madsen skrev:
> Thomas G. Madsen skrev:
>
>> AMD har vel pt. intet, som skal konkurrere med CUDA, har de?
>
> En Google-søgning afslører noget ved navn Brook+, så det har de
> tilsyneladende.
ATI/AMD var (så vidt jeg ved) ca. samtidig på markedet med deres
GPU-interface. CUDA var bare et abstraktionsniveau højere oppe. Dette
gør det lidt lettere at anvende, men til gengæld sværere at gennemskue.
ATI/AMD valgte at "åbne" instruktionssættet - så vidt jeg har fået at
vide var instruktionssættet dog også "falsk", men lå tættere på
hardware-instruktionssættet end CUDA og dermed sværere at anvende.
Deres abstraktionsniveau Brook+ har jeg faktisk ikke kendt før nu
(tilsyneladende et projekt fra Stanford University Graphics group).
Hvordan det fungerer og om det er blevet bedre jeg har ikke nogen ide om.
Må dog sige at AMD's planer med ATI tiltaler mig meget. Det lader til at
de vil åbne op for open source drivere, hvilket kan være en fordel for
mange udviklere. Og helt klart til billedbehandling er det en fordel!
Nå, det er vist ved at blive lidt OT dette her.
/ Preben
| |
Søren Friberg (29-07-2008)
| Kommentar Fra : Søren Friberg |
Dato : 29-07-08 08:44 |
| | |
Søren Friberg (29-07-2008)
| Kommentar Fra : Søren Friberg |
Dato : 29-07-08 08:52 |
| | |
|
|