W regresji liniowej doszedłem do cudownego wyniku, jeśli dopasujemy model
to jeśli znormalizujemy i wyśrodkujemy dane , i ,
Wydaje mi się, że jest to zmienna wersja dla regresji , co jest przyjemne.
Ale jedyny dowód, jaki znam, nie jest w żaden sposób konstruktywny ani wnikliwy (patrz poniżej), a jednak patrząc na to wydaje się, że powinien być łatwo zrozumiały.
Przykładowe przemyślenia:
- Parametry i dają nam „proporcję” i w , więc bierzemy odpowiednie proporcje ich korelacji ...
- W y są częściowymi korelacje, jest kwadrat korelacji wielorakiej ... korelacje pomnożone przez częściowe korelacji ...
- Jeśli najpierw ortogonalizujemy, to s będzie ... czy ten wynik ma jakiś sens geometryczny?
Żaden z tych wątków wydaje mi się nigdzie nie prowadzić. Czy ktoś może podać jasne wyjaśnienie, w jaki sposób zrozumieć ten wynik.
Niezadowalający dowód
i
CO BYŁO DO OKAZANIA.
regression
linear-model
r-squared
proof
Korone
źródło
źródło
Odpowiedzi:
Matryca kapeluszowa jest idempotentna.
(Jest to liniowo-algebraiczny sposób stwierdzenia, że OLS jest ortogonalnym rzutem wektora odpowiedzi na przestrzeń rozpiętą przez zmienne.)
Przypomnij sobie to z definicji
gdzie
jest sumą kwadratów (wyśrodkowanych) przewidywanych wartości i
jest sumą kwadratów (wyśrodkowanych) wartości odpowiedzi. Implikuje również uprzednia standaryzacja względem wariancji jednostekY
Przypomnijmy również, że szacunkowe współczynniki są podane przez
skąd
gdzie jest „matryca hat” dokonywania projekcji na swych najmniejszych kwadratów dopasowania . Jest symetryczny (co wynika z samej jego formy) i idempotentny . Oto dowód tego drugiego dla tych, którzy nie znają tego wyniku. To tylko tasowanie nawiasów wokół:H Y Y^
W związku z tym
Kluczowy ruch w środku wykorzystał idempotencję matrycy kapelusza. Z prawej strony jest magicznych wzór ponieważ jest (wiersz) wektorem współczynników korelacji między i kolumny .1nY′X Y X
źródło
^{-}
zamiast^{-1}
wszędzie?Następujące trzy formuły są dobrze znane, można je znaleźć w wielu książkach o regresji liniowej. Nie jest trudno je uzyskać.
Jeśli podstawisz dwie bety do równania , otrzymasz powyższy wzór na R-kwadrat.R2=rYX1β1+rYX2β2
Oto geometryczny „wgląd”. Poniżej znajdują się dwa zdjęcia pokazujące regresję przez i . Ten rodzaj reprezentacji jest znany jako zmienne jako wektory w przestrzeni tematycznej ( przeczytaj, o co chodzi). Obrazy są rysowane po wyśrodkowaniu wszystkich trzech zmiennych, a więc (1) długość każdego wektora = st. odchylenie odpowiedniej zmiennej i (2) kąt (jej cosinus) między każdymi dwoma wektorami = korelacja między odpowiednimi zmiennymi.Y X1 X2
Lewy obraz przedstawia pochylać współrzędne z na zmiennych i . Wiemy, że takie współrzędne odnoszą się do współczynników regresji. Mianowicie współrzędne to: i .Y^ X1 X2 b1|X1|=b1σX1 b2|X2|=b2σX2
A prawe zdjęcie pokazuje odpowiednie współrzędne prostopadłe . Wiemy, że takie współrzędne odnoszą się do współczynników korelacji zerowego rzędu (są to cosinusy rzutów ortogonalnych). Jeśli jest korelacją między i a jest korelacją między i wówczas współrzędna to . Podobnie dla drugiej współrzędnej, .r1 Y X1 r∗1 Y^ X1 r1|Y|=r1σY=r∗1|Y^|=r∗1σY^ r2|Y|=r2σY=r∗2|Y^|=r∗2σY^
Do tej pory były to ogólne wyjaśnienia reprezentacji wektora regresji liniowej. Teraz zwracamy się do zadania, aby pokazać, w jaki sposób może on prowadzić do .R2=r1β1+r2β2
Przede wszystkim przypomnij sobie, że w swoim pytaniu @Corone przedstawił warunek, że wyrażenie jest prawdziwe, gdy wszystkie trzy zmienne są znormalizowane , to znaczy nie tylko wyśrodkowane, ale także skalowane do wariancji 1. Następnie (tj. Sugerując aby być „częściami roboczymi” wektorów) mamy współrzędne równe: ; ; ; ; a także. Przerysuj, w tych warunkach, tylko „płaszczyzna X” powyższych zdjęć:|X1|=|X2|=|Y|=1 b1|X1|=β1 b2|X2|=β2 r1|Y|=r1 r2|Y|=r2 R=|Y^|/|Y|=|Y^|
Na zdjęciu mamy parę prostopadłych współrzędnych oraz parę skośnych współrzędnych, z tego samego wektora o długości . Istnieje ogólna zasada uzyskiwania współrzędnych prostopadłych z ukośnych (lub z tyłu): , gdzie jest macierzą prostopadłych; jest matrycą skośną tej samej wielkości; i są symetryczną macierzą kątów (cosinusów) między nieortogonalnymi osiami.Y^ R P=SC P S C
points X axes
axes X axes
Zastąpić te wyrażony poprzez sw @ corone oświadczeniu , a dostaniesz to , - to prawda , ponieważ dokładnie tak jest wyrażona przekątna równoległoboku (podbarwiona na zdjęciu) poprzez sąsiednie boki (ilość jest iloczynem skalarnym).r β R2=r1β1+r2β2 R2=β21+β22+2β1β2r12 β1β2r12
To samo dotyczy dowolnej liczby predyktorów X. Niestety, niemożliwe jest narysowanie podobnych obrazów za pomocą wielu predyktorów.
źródło