Na obu wykresach każda kolorowa linia reprezentuje wartość przyjmowaną przez inny współczynnik w twoim modelu. lambda jest wagą przypisaną do terminu regularyzacji (norma L1), więc gdy lambda zbliża się do zera, funkcja utraty twojego modelu zbliża się do funkcji utraty OLS. Oto jeden ze sposobów określenia funkcji utraty LASSO w celu uzyskania tego konkretnego:
βl a s s o= argmin [ R SS.( β) + λ ∗ L1-Norm ( β) ]
Dlatego, gdy lambda jest bardzo mała, rozwiązanie LASSO powinno być bardzo zbliżone do rozwiązania OLS, a wszystkie współczynniki znajdują się w modelu. Gdy lambda rośnie, termin regularyzacji ma coraz większy wpływ i zobaczysz mniej zmiennych w swoim modelu (ponieważ coraz więcej współczynników będzie miało wartość zerową).
Jak wspomniałem powyżej, norma L1 jest terminem regularyzacji dla LASSO. Być może lepszym sposobem na to jest to, że oś x jest maksymalną dopuszczalną wartością, jaką może przyjąć norma L1 . Więc kiedy masz małą normę L1, masz dużo regularyzacji. Dlatego norma L1 równa zero daje pusty model, a wraz ze wzrostem normy L1 zmienne „wejdą” do modelu, ponieważ ich współczynniki przyjmą wartości niezerowe.
Wykres po lewej i wykres po prawej pokazują w zasadzie to samo, tylko w różnych skalach.