Determinant informacji Fishera

13

(Podobne pytanie zadałem na stronie math.se. )

W geometrii informacji wyznacznikiem macierzy informacji Fishera jest naturalna postać objętości na rozmaitości statystycznej, więc ma dobrą interpretację geometryczną. Na przykład fakt, że pojawia się w definicji Jeffreys przed, jest związany z jej niezmiennością przy reparametryzacjach, która jest (imho) właściwością geometryczną.

Ale co jest tym wyznacznikiem w statystykach ? Czy mierzy coś sensownego? (Na przykład powiedziałbym, że jeśli wynosi zero, to parametry nie są niezależne. Czy to idzie dalej?)

Czy istnieje jakaś zamknięta forma do jej obliczenia, przynajmniej w niektórych „łatwych” przypadkach?

geodude
źródło

Odpowiedzi:

11

β^

Zatem wyznacznikiem macierzy informacji Fishera jest odwrotność tej uogólnionej wariancji. Można to wykorzystać w projekcie eksperymentalnym do znalezienia optymalnych eksperymentów (do oszacowania parametrów). W tym kontekście nazywa się to optymalizacją D, która ma ogromną literaturę. więc google dla „D-optymalny eksperymentalny projekt”. W praktyce często łatwiej jest zmaksymalizować wyznacznik odwrotnej macierzy kowariancji, ale jest to oczywiście to samo, co zminimalizowanie wyznacznika jej odwrotności.

Istnieje również wiele postów na tej stronie, ale niewiele ma dobre odpowiedzi. Oto jeden: eksperymentalny (czynnikowy) projekt nie wykorzystujący wariancji

kjetil b halvorsen
źródło
1
Tak więc kolejnym pytaniem jest znaczenie uogólnionej wariancji. Czy ma to związek z niezależnością liniową? Zobacz także to pytanie .
GENIVI-LEARNER