Stosujesz regresję kalenicową dla nieokreślonego układu równań?

9

Gdy , problem najmniejszych kwadratów, który nakłada sferyczne ograniczenie na wartość można zapisać jako dla zbyt określonego systemu. \ | \ cdot \ | _2 to euklidesowa norma wektora.y=Xβ+eδβ

min yXβ22s.t.  β22δ2
2

Odpowiednie rozwiązanie dla β podano przez

β^=(XTX+λI)1XTy ,
który można wyprowadzić z metody mnożników Lagrange'a ( \ mnożnik to \ lambdaλ ):
L(β,λ)=yXβ22+λ(β22δ2)

Rozumiem, że istnieje właściwość, która

(XTX+λI)1XT=XT(XXT+λI)1 .
Prawa strona przypomina pseudo-odwrotność macierzy regresora X w niedookreślonym przypadku (z dodanym parametrem regularyzacji λ ). Czy to oznacza, że ​​można użyć tego samego wyrażenia do przybliżenia β dla niedookreślonego przypadku? Czy istnieje oddzielne wyprowadzenie dla odpowiedniego wyrażenia w nieokreślonym przypadku, ponieważ ograniczenie sferyczne jest zbędne z funkcją celu (minimalna norma β ):

min. β2s.t. Xβ=y .
hatmatrix
źródło

Odpowiedzi:

12

Począwszy od sformułowania problemu regresji kalenicy jako

minXβy22+λx22

możesz napisać problem jako

minAβb22

gdzie

A=[XλI]

i

b=[y0].

Matryca ma pełnej kolumny powodu części. Zatem problem najmniejszych kwadratów jako unikalne rozwiązanieAλI

β^=(ATA)1ATb

Pisząc to w kategoriach i , i upraszczając wiele zer, otrzymujemyXy

β^=(XTX+λI)1XTy

Nic w tym wyprowadzeniu nie zależy od tego, czy ma więcej wierszy lub kolumn, a nawet od tego, czy ma pełną pozycję. Ta formuła ma zatem zastosowanie do nieokreślonego przypadku. XX

Algebraicznym faktem jest to, że dla ,λ>0

(XTX+λI)1XT=XT(XXT+λI)1

Mamy więc również możliwość korzystania

β^=XT(XXT+λI)1y .

Aby odpowiedzieć na konkretne pytania:

  1. Tak, obie formuły działają zarówno dla przypadku nieokreślonego, jak i przypadku nadmiernie określonego. Oni także praca jeśli jest mniejsza niż minimum liczbę wierszy i kolumn . Druga wersja może być bardziej wydajna w przypadku problemów, które nie są określone, ponieważ jest mniejszy niż w tym przypadku. rank(X)XXXTXTX

  2. Nie znam żadnych pochodnych alternatywnej wersji formuły, która zaczyna się od jakiegoś innego problemu z najmniejszymi kwadratami i używa normalnych równań. W każdym razie możesz to uzyskać w prosty sposób, używając odrobiny algebry.

Możliwe, że myślisz o problemie regresji grzbietu w formie

minβ22

z zastrzeżeniem

Xβy22ϵ.

Jednak ta wersja problemu regresji kalenicy po prostu prowadzi do tego samego problemu z tłumieniem najmniejszych kwadratów .minXβy22+λβ22

Brian Borchers
źródło
2
Warto zauważyć, co dzieje się w limicie, ponieważ przyjmuje wartość 0, jeśli ma pełną pozycję w rzędzie lub pełną pozycję w kolumnie. Jeśli ma pełny stopień kolumny, to w limicie dostajesz pseudoinwersję . Podobnie, jeśli ma pełną pozycję w rzędzie, to w limicie dostajesz pseudo-odwrotność . Działa to zgodnie z oczekiwaniami. λXX(XTX)1XTXXT(XXT)1
Brian Borchers,
To jest fenomenalnie kompleksowa odpowiedź, a wyprowadzenie z rozszerzonych tablic (plus algebry, którą przegapiłem) jest bardzo satysfakcjonujące. Nie myślałem o problemie regresji grzbietu w formie, którą przedstawiłeś na końcu, ale ciekawe jest, że prowadzi on do tej samej funkcji celu. Wielkie dzięki!
hatmatrix
1
Dzięki. Włożę tutaj bezwstydną wtyczkę - możesz znaleźć to (i wiele powiązanych materiałów) w podręczniku na temat szacowania parametrów i odwrotnych problemów, które napisałem wspólnie z Rickiem Asterem i Cliffem Thurberem.
Brian Borchers
1
Dodaję również, że obliczenie tej macierzy odwrotnej zwykle nie jest najlepszym sposobem na użycie tej formuły. W zależności od wielkości i możliwości sparsity z może być znacznie lepiej wyłączyć za pomocą iteracyjnego schematu lub po prostu przy użyciu faktoryzacji Choleskiego macierzy . XXTX+λI
Brian Borchers
Dzięki za sugestie! Doceniam odniesienie do twojej książki, ponieważ miałem problem ze znalezieniem tekstu na tym materiale. Nasz rozmiar danych w rzeczywistości nie jest bardzo duży (tyle, że możemy musieć zastosować to wiele razy do oddzielnych zestawów danych), więc może być podatny na bezpośrednie odwrotne, ale dzięki za dodatkowe wskaźniki!
hatmatrix