/ Forside / Karriere / Uddannelse / Højere uddannelser / Nyhedsindlæg
Login
Glemt dit kodeord?
Brugernavn

Kodeord


Reklame
Top 10 brugere
Højere uddannelser
#NavnPoint
Nordsted1 1588
erling_l 1224
ans 1150
dova 895
gert_h 800
molokyle 661
berpox 610
creamygirl 610
3773 570
10  jomfruane 570
Hessian og Jakobi matricer
Fra : Jakob Nielsen


Dato : 27-06-05 09:52

Er det korrekt forstået at en hessian matrix er den afledte jakobi matrix?
Laver man hessian fra jakobi ved at difrentiere de enkelte elementer
isoleret, eller ser man rækker eller søjler som hele udtryk?

Hessian er altså bare "gradienten" for jakobi, og jakobi er gradienten for
funktionen?





 
 
Jakob Nielsen (27-06-2005)
Kommentar
Fra : Jakob Nielsen


Dato : 27-06-05 10:14

> Er det korrekt forstået at en hessian matrix er den afledte jakobi matrix?
> Laver man hessian fra jakobi ved at difrentiere de enkelte elementer
> isoleret, eller ser man rækker eller søjler som hele udtryk?
>
> Hessian er altså bare "gradienten" for jakobi, og jakobi er gradienten for
> funktionen?

Jeg vil lige sikre mig at jeg har forstået det her - på et eller andet plan.

Har jeg en funktion (x,y)=x^2+y^2, så får jeg en gradient for funktionen som
er en rækkevektor, og den er
(2x,2y) Denne gradient er min Jakobi matrix for funktionen. Jakobi matrix
betyder bare gradient?

Vælger jeg et x,y-par og ganger det på min jakobi matrix, så får jeg min
"hældning".
Eksempelvis er hældningen for (4,5)T=(8,10)T og jeg skal gå modsat denne for
at komme til mit nulpunkt, hvis der er et.

Min Hessian matrix er (2,2) og den er gradientens gradient. Hvis jeg finder
et minimum/maksimum et sted hvor (x,y) ganget på Jakobi matricen giver O, så
kan jeg gange samme koordinater på hessian og se... hvad? Jeg mindes noget
med at man kan se om det var et maksimum, minimum eller saddelpunkt, men
hvordan?

Jeg beklager hvis jeg udtrykker mig lidt klodset, men jeg sidder bare og
fumler med det selv. Dels på dansk dels på engelsk, og ved snart ikke hvad
jeg skal kalde tingene.



Martin C. Petersen (27-06-2005)
Kommentar
Fra : Martin C. Petersen


Dato : 27-06-05 12:56

Jakob Nielsen wrote:
> Jeg vil lige sikre mig at jeg har forstået det her - på et eller andet plan.
>
> Har jeg en funktion (x,y)=x^2+y^2, så får jeg en gradient for funktionen som
> er en rækkevektor, og den er
> (2x,2y) Denne gradient er min Jakobi matrix for funktionen. Jakobi matrix
> betyder bare gradient?
I dette tilfælde (f: R^2 -> R) ja, men generelt er jacobimatricen, J(x0)
for en afbildning g:R^n -> R^m givet ved m x n matricen:
J_ij = df_i/dx_j(x0), i=1,...,m j=1,...,n

I en passende lille omegn af x_0 kan f approksimeres ved:
f(x) ~= f(x_0) + J*(x-x_0)


mvh
Martin

Jakob Nielsen (27-06-2005)
Kommentar
Fra : Jakob Nielsen


Dato : 27-06-05 16:48

> I dette tilfælde (f: R^2 -> R) ja, men generelt er jacobimatricen, J(x0)
> for en afbildning g:R^n -> R^m givet ved m x n matricen:
> J_ij = df_i/dx_j(x0), i=1,...,m j=1,...,n

Ok, jeg havde ikke i mine eksperimenter overvejet andet end R^n->R

> I en passende lille omegn af x_0 kan f approksimeres ved:
> f(x) ~= f(x_0) + J*(x-x_0)

hvor J(x) altså bare er hældningskvotinterne i hver variabels dimension,
ik'?




Martin C. Petersen (27-06-2005)
Kommentar
Fra : Martin C. Petersen


Dato : 27-06-05 17:10

Jakob Nielsen wrote:
>>I dette tilfælde (f: R^2 -> R) ja, men generelt er jacobimatricen, J(x0)
>>for en afbildning g:R^n -> R^m givet ved m x n matricen:
>>J_ij = df_i/dx_j(x0), i=1,...,m j=1,...,n
Eh hov, jeg kom lige til at indføre funktionen som g men skrive f i stedet..

>>I en passende lille omegn af x_0 kan f approksimeres ved:
>>f(x) ~= f(x_0) + J*(x-x_0)
>
> hvor J(x) altså bare er hældningskvotinterne i hver variabels dimension,
> ik'?
J er jacobimatricen for f i punktet x0 (det ville nok være lidt klarere
at skrive den som J_x0 i øvrigt), x0 og x er vektorer.


Martin

Jakob Nielsen (27-06-2005)
Kommentar
Fra : Jakob Nielsen


Dato : 27-06-05 20:08

> J er jacobimatricen for f i punktet x0 (det ville nok være lidt klarere at
> skrive den som J_x0 i øvrigt), x0 og x er vektorer.

Ja, men J(x) er for x, ikke? Hvad mener du med x0 her? J er vel lig J(x) når
x er 1, ikke`?



Jonas Møller Larsen (27-06-2005)
Kommentar
Fra : Jonas Møller Larsen


Dato : 27-06-05 18:42

Martin C. Petersen wrote:
> generelt er jacobimatricen, J(x0)
> for en afbildning g:R^n -> R^m givet ved m x n matricen:
> J_ij = df_i/dx_j(x0), i=1,...,m j=1,...,n
>
> I en passende lille omegn af x_0 kan f approksimeres ved:
> f(x) ~= f(x_0) + J*(x-x_0)

Det næste korrektionsled i approksimationen indeholder netop
Hesse-matricen (mener jeg, den kaldes på dansk; den er opkaldt efter en
hr. Hesse):

f(x) ~= f(x_0) + J(x_0) (x-x_0) + ½(x-x_0)T H(x_0) (x-x_0)

En sammenligning med det tilsvarende (velkendte) Taylor-polynomium for
en f:R->R funktion,

f(x) ~= f(x_0) + f'(x_0) (x-x_0) + ½(x-x_0) f''(x_0) (x-x_0),

giver en idé om, at Jacobi-matricen for f:R^n->R^m er funktionens
gradient f':R^n->R^(n×m), og at Hesse-matricen for f er gradientens
gradient f'':R^n->R^(n×(n×m)).

--
Jonas Møller Larsen

Jakob Nielsen (27-06-2005)
Kommentar
Fra : Jakob Nielsen


Dato : 27-06-05 20:11

> giver en idé om, at Jacobi-matricen for f:R^n->R^m er funktionens gradient
> f':R^n->R^(n×m), og at Hesse-matricen for f er gradientens gradient
> f'':R^n->R^(n×(n×m)).

Godt, så havde jeg den del korrekt, men jeg bemærker at H skal være
kvadratisk (square).
I mit eksempel for
f(x,y)=x^2+y^2 fik jeg en rækkevektor som J og H, men H skal opbygges
anderledes så den bliver kvadratisk. Jeg må med skam erkende at jeg ikke
helt forstår beskrivelsen af opbygningen af H på matworlds side.
For mit eksempel kan nogen da vise mig hvad H bliver?



Jonas Møller Larsen (27-06-2005)
Kommentar
Fra : Jonas Møller Larsen


Dato : 27-06-05 18:59

Jakob Nielsen wrote:
> Har jeg en funktion (x,y)=x^2+y^2, så får jeg en gradient for funktionen som
> er en rækkevektor, og den er
> (2x,2y) Denne gradient er min Jakobi matrix for funktionen. Jakobi matrix
> betyder bare gradient?

Ja. Og gradienten er selv en funktion (fra R² til R²)

J(x,y) = (Jx(x,y), Jy(x,y)) = (2x, 2y)

> Vælger jeg et x,y-par og ganger det på min jakobi matrix, så får jeg min
> "hældning".

Matricen (som i dette tilfælde også er en vektor) skal *evalueres* i
(x,y) for at give gradienten i (x,y).

> Min Hessian matrix er (2,2)

Nej, for alle komponenter af gradienten skal differentieres mht. både x
og y. Der er 2x2 muligheder, og det giver en 2x2 matrix

H(x,y) = d(Jx)/dx d(Jx)/dy
d(Jy)/dx d(Jy)/dy

> og den er gradientens gradient.

Ja.

> Hvis jeg finder
> et minimum/maksimum et sted hvor (x,y) ganget på Jakobi matricen giver O, så
> kan jeg gange samme koordinater på hessian

Nej, Hesse-matricen evalueres i (x,y).

> og se... hvad? Jeg mindes noget
> med at man kan se om det var et maksimum, minimum eller saddelpunkt, men
> hvordan?

Find egenværdierne for H.
Er alle egenværdier positive, har funktionen et minimum.
Er alle egenværdier negative, har funktionen et maksimum.
Er en egenværdi 0, kan man intet konkludere.
Ellers er det et saddelpunkt.

I eksemplet f(x,y)=x²+y², er der et minimum i (0,0).

--
Jonas Møller Larsen

Jakob Nielsen (27-06-2005)
Kommentar
Fra : Jakob Nielsen


Dato : 27-06-05 20:24


>> Min Hessian matrix er (2,2)
>
> Nej, for alle komponenter af gradienten skal differentieres mht. både x og
> y. Der er 2x2 muligheder, og det giver en 2x2 matrix
>
> H(x,y) = d(Jx)/dx d(Jx)/dy
> d(Jy)/dx d(Jy)/dy
>

Takker. Nu er jeg ved at være med.

> Nej, Hesse-matricen evalueres i (x,y).

Ja, det var min fejl at se evalueringen som en vektor ganget på en
rækkevektor eller matrix. Man indsæter blot værdierne for x og y.

Takker for hele svaret.




Martin C. Petersen (27-06-2005)
Kommentar
Fra : Martin C. Petersen


Dato : 27-06-05 12:48

Jakob Nielsen wrote:
> Er det korrekt forstået at en hessian matrix er den afledte jakobi matrix?
> Laver man hessian fra jakobi ved at difrentiere de enkelte elementer
> isoleret, eller ser man rækker eller søjler som hele udtryk?
Mathworld har svaret (selv om den første tekst dog er en anelse mystisk,
der ser ud til at mangle noget):
http://mathworld.wolfram.com/Hessian.html

Bemærk også henvisningen til (som også kaldes ABC-kriteriet på dansk):
http://mathworld.wolfram.com/SecondDerivativeTest.html


mvh
Martin

Jakob Nielsen (27-06-2005)
Kommentar
Fra : Jakob Nielsen


Dato : 27-06-05 16:50

> Mathworld har svaret (selv om den første tekst dog er en anelse mystisk,
> der ser ud til at mangle noget):
> http://mathworld.wolfram.com/Hessian.html
>
> Bemærk også henvisningen til (som også kaldes ABC-kriteriet på dansk):
> http://mathworld.wolfram.com/SecondDerivativeTest.html

Jeg havde faktisk tidligere været på de links, men var åbenbart for hastig,
for jeg fik da lidt mere ud af dem ved gensynet. Takker for svaret.



Søg
Reklame
Statistik
Spørgsmål : 177552
Tips : 31968
Nyheder : 719565
Indlæg : 6408847
Brugere : 218887

Månedens bedste
Årets bedste
Sidste års bedste