Dostępne są różne programy wdrożeniowe dla lasso . Wiem wiele dyskusji na temat podejścia bayesowskiego i częstego na różnych forach. Moje pytanie jest bardzo specyficzne dla lasso - jakie są różnice lub zalety lasso baysian w porównaniu ze zwykłym lasso ?
Oto dwa przykłady implementacji w pakiecie:
# just example data
set.seed(1233)
X <- scale(matrix(rnorm(30),ncol=3))[,]
set.seed(12333)
Y <- matrix(rnorm(10, X%*%matrix(c(-0.2,0.5,1.5),ncol=1), sd=0.8),ncol=1)
require(monomvn)
## Lasso regression
reg.las <- regress(X, Y, method="lasso")
## Bayesian Lasso regression
reg.blas <- blasso(X, Y)
Kiedy więc powinienem wybrać jedną lub inną metodę? Czy są takie same?
źródło
„Najmniejsze kwadraty” oznaczają, że ogólne rozwiązanie minimalizuje sumę kwadratów błędów popełnionych w wynikach każdego pojedynczego równania. Najważniejszym zastosowaniem jest dopasowanie danych. Najlepsze dopasowanie w sensie najmniejszych kwadratów minimalizuje sumę kwadratów reszt, przy czym reszta jest różnicą między wartością obserwowaną a dopasowaną wartością dostarczoną przez model. Problemy z najmniejszymi kwadratami dzielą się na dwie kategorie: liniowe lub zwykłe najmniejsze kwadraty i inne liniowe najmniejsze kwadraty, w zależności od tego, czy reszty są liniowe we wszystkich niewiadomych.
Bayesowska regresja liniowa to podejście do regresji liniowej, w którym analiza statystyczna jest przeprowadzana w kontekście wnioskowania bayesowskiego. Gdy w modelu regresji występują błędy o rozkładzie normalnym i przy założeniu określonej formy wcześniejszego rozkładu, dostępne są wyraźne wyniki dla późniejszych rozkładów prawdopodobieństwa parametrów modelu.
Alternatywną regularną wersją najmniejszych kwadratów jest Lasso (operator najmniejszego bezwzględnego skurczu i operatora wyboru), który wykorzystuje ograniczenie, że , norma L1 wektora parametru, nie jest większa niż podana wartość . W kontekście bayesowskim jest to równoważne z umieszczeniem zerowej średniej Laplace'a przed rozkładem na wektorze parametrów.∥ β∥1
Jedną z głównych różnic między regresją Lasso i regresji kalenicowej jest to, że w regresji kalenicowej, wraz ze wzrostem kary, wszystkie parametry są zmniejszane, pozostając niezerowe, podczas gdy w Lasso, zwiększenie kary spowoduje, że będzie coraz więcej parametrów doprowadzony do zera.
W pracy porównano regularne lasso z lasso bayesowskie i regresją kalenicową (patrz ryc. 1 ).
źródło