Granica estymacji regresji grzbietu „wariancji jednostkowej”, gdy

21

Rozważ regresję kalenicową z dodatkowym ograniczeniem wymagającym, aby miał jednostkową sumę kwadratów (równoważnie wariancję jednostkową); w razie potrzeby można założyć, że ma również jednostkową sumę kwadratów:y^y

β^λ=argmin{yXβ2+λβ2}s.t.Xβ2=1.

Jaki jest limit β^λ kiedy λ ?


Oto kilka stwierdzeń, które moim zdaniem są prawdziwe:

  1. Gdy λ=0 , istnieje czyste, wyraźne rozwiązanie: weź estymator OLS β^0=(XX)1Xy i znormalizuj go, aby spełnić ograniczenie (można to zobaczyć, dodając mnożnik Lagrange'a i różnicując):

    β^0=β^0/Xβ^0.
  2. Ogólnie rzecz biorąc, rozwiązaniem jest

    β^λ=((1+μ)XX+λI)1Xywith μ needed to satisfy the constraint.
    Nie widzę rozwiązania w postaci zamkniętej, gdy λ>0 . Wygląda na to, że rozwiązanie jest równoważne zwykłemu estymatorowi RR z pewną wartością λ znormalizowaną w celu spełnienia ograniczenia, ale nie widzę zamkniętej formuły dla λ .
  3. Kiedy λ , zwykły estymator RR

    β^λ=(XX+λI)1Xy
    oczywiście zbiega się do zera, ale jego kierunek β^λ/β^λzbiega się w kierunku Xy , czyli pierwszego komponentu najmniejszych częściowych kwadratów (PLS).

Oświadczenia (2) i (3) razem sprawiają, że myślę, że być może β^λ również jest zbieżny z odpowiednio znormalizowanym Xy , ale nie jestem pewien, czy to jest poprawne i tak się nie udało.

ameba mówi Przywróć Monikę
źródło

Odpowiedzi:

17

Interpretacja geometryczna

Estymator opisany w pytaniu jest odpowiednikiem mnożnika Lagrange'a następującego problemu optymalizacji:

minimize f(β) subject to g(β)t and h(β)=1 

f(β)=yXβ2g(β)=β2h(β)=Xβ2

które można postrzegać geometrycznie jako znalezienie najmniejszej elipsoidy która dotyka przecięcia sfery elipsoidyf(β)=RSS g(β)=th(β)=1


Porównanie do standardowego widoku regresji kalenicy

Pod względem widoku geometrycznego zmienia to stary widok (dla standardowej regresji grzbietu) punktu, w którym styka się sferoida (błędy) i kula ( )β2=t . W nowym widoku, w którym szukamy punktu, w którym sferoida (błędy) dotyka krzywej (norma beta ograniczona przez )Xβ2=1 . Jedna kula (niebieska na lewym obrazku) zmienia się w postać o niższym wymiarze ze względu na przecięcie z ograniczeniem .Xβ=1

W przypadku dwuwymiarowym jest to łatwe do przejrzenia.

widok geometryczny

Kiedy dostosować parametr następnie zmienia względne długości niebieski / czerwony kulek lub względnych rozmiarów i (W teorii Lagrange'a mnożących jest prawdopodobnie gustowny sposób formalnie i dokładnie opisuj, że oznacza to, że dla każdego jako funkcja lub odwrócona jest funkcją monotonna. Ale wyobrażam sobie, że intuicyjnie widzisz, że suma kwadratów reszt rośnie tylko wtedy, gdy zmniejszamy .)tf(β)g(β) tλ||β||

Rozwiązanie dla jest takie, jak argumentowałeś na linii między 0 aβλλ=0βLS

Rozwiązanie dla jest (tak jak skomentowałeś) w ładowaniach pierwszego głównego komponentu. W tym momencie jest najmniejszy dla . Jest to punkt, w którym okrąg dotyka elipsy w jednym punkcie.βλλβ2βX2=1β2=t|Xβ|=1

W tym widoku krawędzie przecięcia kuli oraz sferoidy są punktami. W wielu wymiarach będą to krzyweβ2=tβX2=1

(Najpierw wyobrażałem sobie, że te krzywe będą elipsami, ale są bardziej skomplikowane. Można sobie wyobrazić, że elipsoida jest przecięta przez piłkę jak niektóre rodzaj elipsoidy, ale z krawędziami, które nie są prostymi elipsami)Xβ2=1β2t


Jeśli chodzi o limitλ

Na początku (poprzednie edycje) napisałem, że będą pewne ograniczenia powyżej których wszystkie rozwiązania są takie same (i znajdują się w punkcie ). Ale to nie przypadekλlimβ

Rozważ optymalizację jako algorytm LARS lub spadek gradientu. Jeśli dla dowolnego punktu istnieje kierunek, w którym możemy zmienić tak, że kara umowna wzrasta mniej niż wartość SSR maleje, to nie jesteś w minimum .ββ|β|2|yXβ|2

  • W normalnej regresji grzbietu masz zerowe nachylenie (we wszystkich kierunkach) dla w punkcie . Tak więc dla wszystkich skończonych rozwiązaniem nie może być (ponieważ można wykonać nieskończenie mały krok w celu zmniejszenia sumy kwadratów reszt bez zwiększania kary).|β|2β=0λβ=0
  • W przypadku LASSO nie jest to takie samo, ponieważ: kara wynosi (więc nie jest kwadratowa z zerowym nachyleniem). Z tego powodu LASSO będzie miało pewną wartość graniczną powyżej której wszystkie rozwiązania są zerowe, ponieważ kara umowna (pomnożona przez ) wzrośnie bardziej niż pozostała suma kwadratów spadnie.|β|1λlimλ
  • W przypadku ograniczonego grzbietu otrzymujesz to samo, co zwykłą regresję grzbietu. Jeśli zmienisz zaczynając od zmiana ta będzie prostopadła do ( jest prostopadła do powierzchni elipsy ) i można zmienić krokiem nieskończenie małym bez zmiany terminu kary, ale zmniejszając sumę kwadratów reszt. Zatem dla każdego skończonego punkt nie może być rozwiązaniem.ββββ|Xβ|=1βλβ

Dalsze uwagi dotyczące limituλ

Zwykły limit regresji grzbietu dla do nieskończoności odpowiada innemu punktowi ograniczonej regresji grzbietu. Ten „stary” limit odpowiada punktowi, w którym jest równe -1. Następnie pochodna funkcji Lagrange'a w znormalizowanym problemieλμ

2(1+μ)XTXβ+2XTy+2λβ
odpowiada rozwiązaniu pochodnej funkcji Lagrange'a w standardowym problemie

2XTXβ+2XTy+2λ(1+μ)βwith β=(1+μ)β


Napisane przez StackExchangeStrike

Sextus Empiricus
źródło
+1. Wielkie dzięki, to jest bardzo pomocne! Potrzebuję trochę czasu, aby to przemyśleć.
ameba mówi Przywróć Monikę
Warto zauważyć, że czerwone i czarne elipsoidy mają ten sam kształt: dlatego punkt, w którym się dotykają, leży na linii łączącej ich centra. Niezły graficzny dowód na punkt 1 w moim pytaniu.
ameba mówi Przywróć Monikę
Próbuję zrozumieć, gdzie na twoim rysunku jest beta, która odpowiada estymatowi grzbietu z nieskończoną lambda, znormalizowanym do położenia na czarnej elipsie. Myślę, że jest gdzieś pomiędzy i (używając mojej notacji) - dwa punkty, które są oznaczone czarnymi otwartymi okręgami na twoim rysunku. Więc jeśli wykonamy regresję grzbietu i znormalizujemy rozwiązanie i zwiększymy lambda od 0 do nieskończoności, prawdopodobnie zabierze nas to tym samym łukiem, ale nie całą drogę do PC1. Zamiast tego jawne wprowadzenie ograniczenia powoduje, że rozwiązania działają aż do PC1. β0βXβ=1
Ameba mówi Przywróć Monikę
+5 (rozpocząłem nagrodę, którą chętnie przyznam na twoją odpowiedź). Opublikowałem również własną odpowiedź, ponieważ wykonałem kilka pochodnych algebraicznych i było zbyt wiele, aby dodać do pytania. Nie przekonuje mnie twoja konkluzja, że ​​pojawi się skończony po którym rozwiązanie nie zmieni się i zostanie podane przez PC1. Nie widzę tego algebraicznie i nie do końca rozumiem twój argument za tym, dlaczego miałby istnieć. Spróbujmy to rozgryźć. λlim
ameba mówi Przywróć Monikę
@amoeba, miałeś rację, że skończony nie istnieje. Za dużo argumentowałem intuicyjnie i szybko przeskoczyłem z określonego warunku dla regularnej regresji kalenicy do ograniczonej regresji kalenicy. Zwykłe RR ma zerowe nachylenie (we wszystkich kierunkach) dla w punkcie . Myślałem, że (od ) nie dostaniesz tego przy ograniczonej regresji. Ponieważ jednak jest ograniczona do elipsoidy nie możesz „przenieść” we wszystkich kierunkach. λlim|β|2β=0β0β|Xβ|=1β
Sextus Empiricus
10

Jest to algebraiczny odpowiednik pięknej geometrycznej odpowiedzi @ Martijn.

Przede wszystkim limit gdy jest bardzo proste do uzyskania: w limicie pierwszy termin w funkcji straty staje się nieistotny i dlatego można go pominąć. Problemem optymalizacji staje się który jest pierwszym głównym składnikiem

β^λ=argmin{yXβ2+λβ2}s.t.Xβ2=1
λ
limλβ^λ=β^=argminXβ2=1β2argmaxβ2=1Xβ2,
X(odpowiednio skalowane). To odpowiada na pytanie.

Rozważmy teraz rozwiązanie dla dowolnej wartości , o której wspomniałem w punkcie # 2 mojego pytania. Dodając do funkcji straty mnożnik Lagrange'a i różnicując, otrzymujemyλμ(Xβ21)

β^λ=((1+μ)XX+λI)1Xywith μ needed to satisfy the constraint.

Jak zachowuje się to rozwiązanie, gdy rośnie od zera do nieskończoności?λ

  • Gdy , otrzymujemy przeskalowaną wersję rozwiązania OLS:λ=0

    β^0β^0.
  • W przypadku dodatnich, ale niewielkich wartości , rozwiązaniem jest skalowana wersja jakiegoś estymatora grzbietu:λ

    β^λβ^λ.
  • Kiedy, wartość potrzebna do spełnienia ograniczenia wynosi . Oznacza to, że rozwiązaniem jest skalowana wersja pierwszego komponentu PLS (co oznacza, że odpowiedniego estymatora grzbietu to ):λ=XXy(1+μ)0λ

    β^XXyXy.
  • Gdy staje się większe, niezbędny termin staje się ujemny. Odtąd rozwiązaniem jest skalowana wersja estymatora pseudo-grzbietu z ujemnym parametrem regularyzacji ( grzbiet ujemny ). Pod względem kierunków, jesteśmy teraz przeszłość grzbiet regresji z nieskończoną lambda.λ(1+μ)

  • Gdy , termin będzie zerowy (lub rozbieżny do nieskończoność), chyba że gdzie jest największą liczbą pojedynczą z . Spowoduje to, że skończony i proporcjonalny do pierwszej osi głównej . Musimy ustawić aby spełnić ograniczenie. W ten sposób otrzymujemyλ((1+μ)XX+λI)1μ=λ/smax2+αsmaxX=USVβ^λV1μ=λ/smax2+U1y1

    β^V1.

Ogólnie rzecz biorąc, widzimy, że ten ograniczony problem minimalizacji obejmuje wersje wariancji jednostek OLS, RR, PLS i PCA w następującym spektrum:

OLSRRPLSnegative RRPCA

Wydaje się to równoważne z niejasnym (?) Szkieletem chemometrii zwanym „regresją ciągłą” (patrz https://scholar.google.de/scholar?q="continuum+ regression , w szczególności Stone & Brooks 1990, Sundberg 1993, Björkström i Sundberg 1999 itd.), Który umożliwia to samo ujednolicenie poprzez maksymalizację kryterium ad hocTo oczywiście daje skalowany OLS, gdy , PLS, gdy , PCA, gdy , i można wykazać, że daje skalowane RR dla

T=corr2(y,Xβ)Varγ(Xβ)s.t.β=1.
γ=0γ=1γ0<γ<11<γ< , patrz Sundberg 1993.

Pomimo dość dużego doświadczenia z RR / PLS / PCA / itp. Muszę przyznać, że nigdy wcześniej nie słyszałem o „regresji kontinuum”. Powinienem również powiedzieć, że nie lubię tego terminu.


Schemat, który zrobiłem na podstawie schematu @ Martijn:

Regresja grzbietu wariancji jednostkowej

Aktualizacja: Figura zaktualizowana o negatywną ścieżkę grzbietu, wielkie dzięki @Martijn za sugestię, jak powinna wyglądać. Zobacz moją odpowiedź w Zrozumienie negatywnej regresji grzbietu, aby uzyskać więcej szczegółów.

ameba mówi Przywróć Monikę
źródło
„Regresja ciągła” wydaje się być jedną z zaskakująco szerokiej kategorii technik mających na celu unifikację PLS i PCA we wspólnych ramach. Nawiasem mówiąc, nigdy o tym nie słyszałem, dopóki nie zbadałem negatywnego grzbietu (podam link do artykułu Bjorkstron i Sundberg, 1999, w pierwszym komentarzu do pytania o grzbiet negatywny, który łączysz), choć wydaje się, że jest to dość szeroko omawiane w literatura chemometryczna. Musi być jakiś historyczny powód, dla którego rozwija się on pozornie w oderwaniu od innych dziedzin statystyki. (1/3)
Ryan Simmons
Jednym z artykułów, który możesz chcieć przeczytać jest de Jong i in. (2001) . Ich sformułowanie „kanonicznego PLS” wydaje się na pierwszy rzut oka równoważne z twoim, chociaż przyznaję, że jeszcze nie rygorystycznie porównałem matematykę (zapewniają również przegląd kilku innych uogólnień PLS-PCA w tym samym duchu). Ale może być wnikliwe, aby zobaczyć, w jaki sposób wyjaśnili problem. (2/3)
Ryan Simmons
W przypadku śmierci tego linku pełny cytat to: Sijmen de Jong, Barry M. Wise, N. Lawrence Ricker. „Kanoniczna częściowa regresja najmniejszych kwadratów i ciągła regresja mocy”. Journal of Chemometrics, 2001; 15: 85–100. doi.org/10.1002/… (3/3)
Ryan Simmons
1
ah, ok, to i idą do nieskończoności, ale ich stosunek pozostaje . W każdym razie ścieżka ujemnej regresji grzbietu powinna znajdować się w (ujemnym) sektorze między wektorami PLS i PCA, tak aby ich rzut na elipsęznajduje się między punktami PLS i PCA. (norma przechodzenia w nieskończoność ma sens, ponieważ przechodzi w nieskończoność, więc ścieżka prowadzi dalej w dolnym prawym rogu, początkowo styczna do, ujemnego, PLS i ostatecznie do PCA)λ1+μ±smax2|Xβ=1|μ
Sextus Empiricus
1
Dodałoby to wizualizacji. Wyobrażam sobie trzy bieżące punkty ścieżki RR (gdzie dotykają się koła i elipsoidy) idące w dół w prawo i ostatecznie, w nieskończoności, koło i elipsoida powinien 'dotyk' w kierunku, w tym miejscu, w którym koło dotyka elipsoidy|β|2=t|X(ββ^)|2=RSS|β|2=tpca|Xβ|2=1
Sextus Empiryk