Początkowo myślałem, że kolejność nie ma znaczenia, ale potem przeczytałem o procesie ortogonalizacji Gram-Schmidta do obliczania wielu współczynników regresji, a teraz mam inne przemyślenia.
Zgodnie z procesem gram-schmidta, im później zmienna objaśniająca jest indeksowana wśród innych zmiennych, tym mniejszy jest jej wektor resztkowy, ponieważ odejmuje się od niego wektory resztkowe poprzedzających zmiennych. W rezultacie współczynnik regresji zmiennej objaśniającej jest również mniejszy.
Jeśli to prawda, to wektor resztkowy danej zmiennej byłby większy, gdyby został wcześniej zindeksowany, ponieważ odejmowanych byłoby mniej wektorów resztkowych. Oznacza to, że współczynnik regresji byłby również większy.
Ok, więc zostałem poproszony o wyjaśnienie mojego pytania. Więc zamieściłem zrzuty ekranu z tekstu, który wprawił mnie w zakłopotanie. OK, proszę bardzo.
Rozumiem, że istnieją co najmniej dwie opcje obliczania współczynników regresji. Pierwsza opcja jest oznaczona (3.6) na zrzucie ekranu poniżej.
Oto druga opcja (musiałem użyć wielu zrzutów ekranu).
O ile czegoś źle nie odczytam (co jest zdecydowanie możliwe), wydaje się, że kolejność ma znaczenie w drugiej opcji. Czy to ma znaczenie w pierwszej opcji? Dlaczego lub dlaczego nie? A może mój układ odniesienia jest tak zawalony, że nie jest to nawet ważne pytanie? Czy to wszystko ma jakiś związek z sumą kwadratów typu I i sumą kwadratów typu II?
Z góry dziękuję, jestem taki zdezorientowany!
Odpowiedzi:
Uważam, że zamieszanie może wynikać z czegoś nieco prostszego, ale daje mi dobrą okazję do przeglądu niektórych powiązanych kwestii.
Kolejny schemat ortogonalizacji (forma ortogonalizacji Gram – Schmidta) (prawie) tworzy parę macierzy i takie, że gdzieG X = Z GZ sol Z n × p G = ( g i j ) p × p Z G
Zakładając oczywiście, że ma rangę , unikalnym rozwiązaniem najmniejszych kwadratów jest wektor który rozwiązuje układ s ≤ n β X t X β = X T YX ∈ Rn× p p ≤ n β^
Zastępstwo Z T Z = I G T G β = G , T Z T YX = Z G i używając (z konstrukcji), otrzymujemy
co jest równoważne
ZT.Z = I G β = Z , T r
Teraz skoncentruj się na ostatnim rzędzie układu liniowego. Jedynym niezerowym elementem w ostatnim wierszu jest . Otrzymujemy więc g s s g s P β p = ⟨ y , oo s ⟩sol solp p g p p = ‖ z p ‖ z i
Aby znaleźć wszystkie współczynniki regresji, należy wykonać prosty krok do zastąpienia w celu rozwiązania dla indywidualnego . Na przykład dla wiersza(P-1)gp-1,p-1 β s-1+gp-1,str β p=⟨oop-1,Y⟩β^ja ( p - 1 ) ,
a więc
Można kontynuować tę procedurę, pracując „wstecz” od ostatniego wiersza systemu do pierwszego, odejmując ważone sumy współczynników regresji już obliczonych, a następnie dzieląc przez wiodący termin aby uzyskać .Β s - 1 = g - 1 p - 1 , p - 1 ⟨ oo p - 1 , Y ⟩
Chodzi o to, że w sekcji ESL możemy zmienić kolejność kolumn aby uzyskać nową macierz przy czym ta oryginalna kolumna jest teraz ostatnią. Jeśli następnie zastosujemy procedurę Gram – Schmidta na nowej macierzy, otrzymamy nową ortogonalizację, dzięki czemu rozwiązanie dla pierwotnego współczynnika znajdziemy w prostym powyższym rozwiązaniu. To daje nam interpretację współczynnika regresji . Jest to regresja jednowymiarowa na wektorze resztkowym uzyskana przez „regresję” pozostałych kolumn macierzy projektowej z .X X( r ) r β^r β^r y xr
Ogólne rozkłady QR
Procedura Gram-Schmidt ale Sposób wytwarzania QR rozkład . Rzeczywiście istnieje wiele powodów, aby preferować inne podejścia algorytmiczne niż procedurę Gram – Schmidta.X
Odbicia domu i rotacje Givens zapewniają bardziej stabilne numerycznie podejście do tego problemu. Należy zauważyć, że powyższy rozwój nie zmienia się w ogólnym przypadku rozkładu QR. Mianowicie, niech być dowolnego rozkładu QR . Następnie, stosując dokładnie takie same rozumowania i manipulacje algebraiczne, jak powyżej, mamy rozwiązanie najmniejszych kwadratów spełnia co upraszcza Ponieważ jest trójkątem górnym, działa ta sama technika zastępowania. Najpierw rozwiązujemy dla
Pojęcie dekompozycji jako macierzy ortogonalnej razy coś innego można również uogólnić nieco dalej, aby uzyskać bardzo ogólną formę dopasowanego wektora , ale obawiam się, że ta odpowiedź stała się już zbyt długa .X y^
źródło
książkę i wygląda na to, że ćwiczenie 3.4 może być przydatne w zrozumieniu koncepcji używania GS do znalezienia wszystkich współczynników regresji (nie tylko współczynnika końcowegoβjot βp - więc napisałem rozwiązanie. Mam nadzieję, że to jest przydatny.
Ćwiczenie 3.4 w języku ESL
Rozwiązanie
Przypomnijmy, że za pomocą jednego przejścia procedury Grama-Schmidta możemy zapisać naszą macierz jako gdzie zawiera kolumny ortogonalne , a jest macierzą o górnej przekątnej z tymi na przekątnej, a . Jest to odzwierciedleniem faktu, że z definicjiX
Teraz przezQ R. rozkład , możemy napisaćX= Q R. Q R Q = Zre- 1 R = D Γ re rej j= ∥ zjot∥
źródło
Dlaczego nie spróbować i porównać? Dopasuj zestaw współczynników regresji, a następnie zmień kolejność i dopasuj je ponownie i sprawdź, czy różnią się (inne niż możliwy błąd zaokrąglenia).
Jak wskazuje @mpiktas, nie jest do końca jasne, co robisz.
źródło