Co to jest kompromis wariancji odchylenia dla współczynników regresji i jak je uzyskać?

9

W tym artykule ( Bayesian Inference for Variance Components using Only Error Contrasts , Harville, 1974), autor twierdzi

(y-Xβ)H.-1(y-Xβ)=(y-Xβ^)H.-1(y-Xβ^)+(β-β^)(XH.-1X)(β-β^)
być „znaną relacją” dla regresji liniowej
y=Xβ+ϵ,
gdzie
ϵN.(0,H.).

Jak to jest dobrze znane? Jak najłatwiej to udowodnić?

Hazard Sibbs
źródło
1
Jest na wikipedii , patrz „wyprowadzanie” tam.
user603
@ user603 Czy masz coś przeciwko, aby link był wyraźniejszy? Dzięki!
Sibbs Gambling
@ user603 Niestety nie widzę, jak link rozwiązuje problem. Dla mnie w moim przypadku równanie to Var (y) = stronniczość + ... Czy możesz to rozwinąć?
Sibbs Gambling
4
@SibbsGambling Pamiętaj, że twoje równanie ma dwa terminy związane z wariancją w tym sformułowaniu ważonej regresji liniowej . Termin po lewej jest związany z wariancją wokół prawdziwego modelu (ważoną macierzą dokładności)H1). Pierwszy termin po prawej dotyczy wariancji wokół dopasowanych modeli. Drugi termin po prawej jest związany z kwadratem błędu. To jest kompromis polegający na odchyleniu wariancji.
EdM

Odpowiedzi:

6

Ostatni termin w równaniu można zapisać jako

(Xβ-Xβ^)H.-1(Xβ-Xβ^).

W tej formie równanie mówi coś interesującego. ZarozumiałyH.jest dodatnia określona i symetryczna, podobnie jak jej odwrotność. Dlatego możemy zdefiniować produkt wewnętrzny<x,y>H.-1=xH.-1y, dając nam geometrię. Zatem powyższa równość zasadniczo mówi, że:

(Xβ-Xβ^)(y-Xβ^).

Chciałem dać ci trochę intuicji, ponieważ komentator już zostawił link do pochodnej.

Edycja: Dla potomności

LHS:

(y-Xβ)H.-1(y-Xβ)=yH.-1y-2)yH.-1Xβ+βXH.-1Xβ=(ZA)-(b)+(do)

RHS:

(y-Xβ^)H.-1(y-Xβ^)+(β-β^)(XH.-1X)(β-β^)
=yH.-1y-2)yH.-1Xβ^+β^XH.-1Xβ^+βXH.-1Xβ-2)β^XH.-1Xβ+β^XH.-1Xβ^=(ZA)-(re)+(mi)+(do)-(fa)+(mi)

Relacja:

β^=(XH.-1X)-1XH.-1y

Podłączając relację możesz pokazać, że (B) = (F) i że 2 (E) = (D). Wszystko gotowe.

jlimahaverford
źródło
Niestety nie widzę, jak link rozwiązuje problem. Dla mnie w moim przypadku równanie to Var (y) = stronniczość + ... Czy możesz to rozwinąć?
Sibbs Gambling
@SibbsGambling zredagował moją odpowiedź, w tym wyprowadzenie.
jlimahaverford,
@ jlimahaverford nie zapominasz y na końcu wzoru na β^?
Gumeo
7

Dochodzą do tej tożsamości techniką zwaną uzupełnianiem kwadratu. Lewa strona ma kwadratową formę, więc zacznij od pomnożenia

(y-Xβ)H.-1(y-Xβ)=yH.-1y-2)yH.-1Xβ+βXH.-1Xβ

kontynuuj, a następnie przepisz w kategoriach β^=(XH.-1X)-1XH.-1y. Algebra jest jakby długa, ale googlująca się po kwadracie w regresji bayesowskiej i można znaleźć wiele wskazówek. Na przykład zobacz wikipedię na temat regresji liniowej Bayesa i inne odpowiedzi CrossValided dotyczące wypełnienia kwadratu, tak jak tutaj .

bill_e
źródło
2

Jeśli znasz swoją algebrę macierzy, powinno to być możliwe poprzez pomnożenie wszystkiego i sprawdzenie, czy rzeczywiście masz to samo po obu stronach. To właśnie wykazał jlimahaverford.

Aby to zrobić, potrzebujesz wzoru na oszacowanie β^. Możemy wyprowadzić wzór w podobny sposób jak dla regresji liniowej, gdy mamy nieskorelowane terminy błędów. Sztuką jest standaryzacja.

Oto kilka informacji na temat standaryzacji RV, która pochodzi z wielowymiarowego rozkładu normalnego. Załóżmy, że masz

XN.(μ,Σ).
Σ jest pozytywnie określony, więc można go podzielić na czynniki pierwsze Σ=P.P.T.. Teraz zmienna losowa
Y=P.-1(X-μ)
pochodzi z dystrybucji N.(0,ja). Teraz możemy użyć tej sztuczki, aby znaleźć problemβ^. Rozłóżmy na czynnikiH.=P.P.T.. Mamy
y=Xβ+ϵP.-1y=P.-1Xβ+P.-1ϵ
Teraz ϵ został znormalizowany, tak że Cov(P.-1ϵ)=ja, dzięki czemu możemy teraz traktować to jako prosty model wielokrotnej regresji liniowej, w którym:
X~=P.-1X,y~=P.-1yiϵ~=P.-1ϵ.
Mamy więc problem z regresją:
y~=X~β+ϵ~
Wzór na β^ jest
β^=(X~T.X~)-1X~T.y~=((P.-1X)T.P.-1X)-1(P.-1X)T.P.-1y=(XT.(P.P.T.)-1X)-1X(P.P.T.)-1y=(XT.H.-1X)-1XH.-1y
To jest klucz do tego, reszta to manipulacja algebraiczna pokazana w rozwiązaniu przez jlimahaverford.
Gumeo
źródło