Rozwiązania LASSO to rozwiązania, które minimalizują
Q ( β| X, y) = 12 n| | y- Xβ| |2)+ λ ∑jot| βjot|
adaptacyjne lasso po prostu dodaje do tego wagi, aby spróbować przeciwdziałać znanemu problemowi szacunków LASSO.
Qza( β| X, y, w ) = 12 n| | y- Xβ| |2)+ λ ∑jotwjot| βjot|
Często widzisz , gdzie to niektóre wstępne szacunki (być może z samego użycia LASSO, lub najmniejszych kwadratów itp.). Czasami adaptacyjne lasso jest dopasowane przy użyciu „podejścia ścieżkowego”, w którym ciężar można zmieniać za pomocą˜ β j β λwjot= 1 / β~jotβ~jotβλ
kara glmnet. współczynnik glmnet
wj(λ)=w(β~j(λ))
. W pakiecie wagi można określić za pomocą argumentu . Nie jestem pewien, czy możesz określić „podejście ścieżkowe” w .
glmnetpenalty.factorglmnet
Adaptacyjny LASSO służy do spójnego wyboru zmiennych. Problemy, które napotykamy podczas korzystania z LASSO do wyboru zmiennych, to:
Zatem LASSO jest spójny tylko przy wyborze zmiennych w pewnych warunkach parametru skurczu, parametrów (warunek beta-min) i korelacji (warunek niereprezentatywny). Szczegółowe wyjaśnienie znajduje się na stronach 101–106 mojej pracy magisterskiej .
LASSO często zawiera zbyt wiele zmiennych przy wyborze parametru strojenia do prognozowania, ale prawdziwy model jest bardzo prawdopodobne, że jest to podzbiór tych zmiennych. Sugeruje to zastosowanie drugiego etapu szacowania, takiego jak adaptacyjny LASSO, który kontroluje odchylenie oszacowania LASSO przy użyciu parametru strojenia optymalnego do przewidywania. Prowadzi to do konsekwentnego wyboru (lub właściwości wyroczni) bez warunków wymienionych powyżej.
Możesz użyć glmnet do adaptacyjnego LASSO. Najpierw potrzebujesz wstępnego oszacowania, albo najmniejszych kwadratów, grzbietu, a nawet oszacowań LASSO, aby obliczyć masy. Następnie możesz zaimplementować adaptacyjną LASSO, skalując macierz X. Oto przykład z wykorzystaniem wstępnych oszacowań metodą najmniejszych kwadratów na danych treningowych:
źródło