W tym artykule ( Bayesian Inference for Variance Components using Only Error Contrasts , Harville, 1974), autor twierdzi
być „znaną relacją” dla regresji liniowej
gdzie
Jak to jest dobrze znane? Jak najłatwiej to udowodnić?
W tym artykule ( Bayesian Inference for Variance Components using Only Error Contrasts , Harville, 1974), autor twierdzi
Jak to jest dobrze znane? Jak najłatwiej to udowodnić?
Odpowiedzi:
Ostatni termin w równaniu można zapisać jako
W tej formie równanie mówi coś interesującego. ZarozumiałyH. jest dodatnia określona i symetryczna, podobnie jak jej odwrotność. Dlatego możemy zdefiniować produkt wewnętrzny< x , y>H.- 1=x′H.- 1y , dając nam geometrię. Zatem powyższa równość zasadniczo mówi, że:
Chciałem dać ci trochę intuicji, ponieważ komentator już zostawił link do pochodnej.
Edycja: Dla potomności
LHS:
RHS:
Relacja:
Podłączając relację możesz pokazać, że (B) = (F) i że 2 (E) = (D). Wszystko gotowe.
źródło
Dochodzą do tej tożsamości techniką zwaną uzupełnianiem kwadratu. Lewa strona ma kwadratową formę, więc zacznij od pomnożenia
kontynuuj, a następnie przepisz w kategoriachβ^= (X′H.-1X)- 1X′H.- 1y . Algebra jest jakby długa, ale googlująca się po kwadracie w regresji bayesowskiej i można znaleźć wiele wskazówek. Na przykład zobacz wikipedię na temat regresji liniowej Bayesa i inne odpowiedzi CrossValided dotyczące wypełnienia kwadratu, tak jak tutaj .
źródło
Jeśli znasz swoją algebrę macierzy, powinno to być możliwe poprzez pomnożenie wszystkiego i sprawdzenie, czy rzeczywiście masz to samo po obu stronach. To właśnie wykazał jlimahaverford.
Aby to zrobić, potrzebujesz wzoru na oszacowanieβ^ . Możemy wyprowadzić wzór w podobny sposób jak dla regresji liniowej, gdy mamy nieskorelowane terminy błędów. Sztuką jest standaryzacja.
Oto kilka informacji na temat standaryzacji RV, która pochodzi z wielowymiarowego rozkładu normalnego. Załóżmy, że masz
źródło