W przypadku LASSO (i innych procedur wyboru modelu) kluczowe jest przeskalowanie predyktorów. Ogólna rekomendacja śledzę to po prostu użyć 0, 1 średni normalizację standardowego odchylenia dla zmiennych ciągłych. Ale co to ma wspólnego z manekinami?
Np. Niektóre zastosowane przykłady z tej samej (doskonałej) szkoły letniej powiązałem z przeskalowaniem zmiennych ciągłych, aby były między 0 a 1 (choć nie świetne z wartościami odstającymi), prawdopodobnie aby były porównywalne z manekinami. Ale nawet to nie gwarantuje, że współczynniki powinny być tego samego rzędu wielkości, a tym samym ukarane podobnie, główny powód przeskalowania, prawda?
Odpowiedzi:
Według Tibshirani ( METODA LASSO DO ZMIENNEGO WYBORU W MODELU COXA, Statistics in Medicine, tom 16, 385-395 (1997) ), który dosłownie napisał książkę o metodach regularyzacji, powinieneś ustandaryzować manekiny. Jednak tracisz bezpośrednią interpretację swoich współczynników. Jeśli tego nie zrobisz, twoje zmienne nie będą równe. Zasadniczo przechylasz skale na korzyść zmiennych ciągłych (najprawdopodobniej). Jeśli więc twoim głównym celem jest wybór modelu, jest to poważny błąd. Jeśli jednak bardziej interesuje Cię interpretacja, być może nie jest to najlepszy pomysł.
Zalecenie znajduje się na stronie 394:
źródło
Warto także przeczytać wpis na blogu Andrew Gelmana: Kiedy ujednolicić dane regresji i kiedy zostawić je w spokoju . Ta część jest szczególnie istotna:
źródło
x -> x / 2
To bardziej komentarz, ale za długi. Jednym z najczęściej używanych oprogramowanie dla lasso (i przyjaciół) jest R użytkownika
glmnet
. Ze strony pomocy wydrukowanej przez?glmnet
:źródło