Czytałem w wielu odnośnikach, że oszacowanie Lasso dla wektora parametru regresji jest równoważne trybowi tylnemu w którym poprzedni rozkład dla każdego jest podwójnym wykładniczym (znanym również jako rozkład Laplace'a).
Próbowałem to udowodnić, czy ktoś może dopracować szczegóły?
regression
bayesian
lasso
prior
regularization
Wintermute
źródło
źródło
Odpowiedzi:
Dla uproszczenia rozważmy tylko jedną obserwację zmiennejY takiej jak
Zatem gęstość połączeniaY,μ,σ2 jest proporcjonalna do
Biorąc log i odrzucając warunki, które nie obejmują , log f ( Y , μ , σ 2 ) = - 1μ
Zatem maksimum (1) będzie oszacowaniem MAP i rzeczywiście jest problemem Lasso po ponownym sparametryzowaniu .λ~=λσ2
Rozszerzenie do regresji jest jasne - wymienić z X β w normalny prawdopodobieństwa i ustawić przed na beta będzie ciągiem niezależnych Laplace ( X ) rozkładów.μ Xβ β (λ)
źródło
Jest to oczywiste po sprawdzeniu ilości, którą LASSO optymalizuje.
Przyjmijmy, że jest niezależnym Laplace'em ze średnią zero i pewną skalą τ .βi τ
Więc .p(β|τ)∝e−12τ∑i|βi|
Model danych to typowe założenie regresji .y∼iidN(Xβ,σ2)
Teraz minus dwukrotność kłody tylnej jest w formie
1k(σ2,τ,n,p)+ 1σ2(y−Xβ)T(y−Xβ)+1τ∑i|βi|
Niech i otrzymamy - 2 log -posterior zλ=σ2/τ −2log
1k(σ2,λ,n,p)+ 1σ2[(y−Xβ)T(y−Xβ)+λ∑i|βi|]
Estymator MAP dla minimalizuje powyższe, co minimalizujeβ
Tak więc estymatorem MAP dla jest LASSO.β
(Tutaj potraktowałem jako skutecznie naprawiony, ale możesz robić z nim inne rzeczy i nadal otrzymywać LASSO.)σ2
Edycja: To właśnie otrzymuję za skomponowanie odpowiedzi off-line; Nie widziałem dobrej odpowiedzi, która została już opublikowana przez Andrew. Mój naprawdę nic nie robi, czego on już nie robi. Na razie zostawiam mój, ponieważ daje on kilka dodatkowych szczegółów rozwoju pod względem .β
źródło