Korzystam z Lasso do wyboru funkcji w relatywnie niskim wymiarze (n >> p). Po dopasowaniu modelu Lasso chcę użyć zmiennych towarzyszących o niezerowych współczynnikach, aby dopasować model bez kary. Robię to, ponieważ chcę obiektywnych szacunków, których Lasso nie może mi podać. Chciałbym również wartości p i przedziały ufności dla obiektywnego oszacowania.
Mam problem ze znalezieniem literatury na ten temat. Większość literatury, którą znajduję, dotyczy umieszczania przedziałów ufności w oszacowaniach Lasso, a nie modelu dopracowanym.
Z tego, co przeczytałem, zwykłe dopasowanie modelu przy użyciu całego zestawu danych prowadzi do nierealistycznie małych wartości p / błędów standardowych. W tej chwili rozdzielanie próbek (w stylu Wassermana i Roedera (2014) lub Meinshausen i wsp. (2009)) wydaje się dobrym rozwiązaniem, ale szukam więcej sugestii.
Czy ktoś napotkał ten problem? Jeśli tak, czy możesz podać jakieś sugestie.
Odpowiedzi:
Aby dodać do poprzednich odpowiedzi. Zdecydowanie powinieneś sprawdzić najnowsze prace Tibshirani i współpracowników. Opracowali rygorystyczne ramy do wnioskowania wartości p skorygowanych o selekcję i przedziałów ufności dla metod typu lasso, a także zapewniają pakiet R.
Widzieć:
Lee, Jason D. i in. „Dokładne wnioskowanie po selekcji, z zastosowaniem do lasso”. The Annals of Statistics 44.3 (2016): 907-927. ( https://projecteuclid.org/euclid.aos/1460381681 )
Taylor, Jonathan i Robert J. Tibshirani. „Nauka statystyczna i wnioskowanie selektywne”. Postępowania z National Academy of Sciences 112.25 (2015): 7629-7634.
Pakiet R:
https://cran.r-project.org/web/packages/selectiveInference/index.html
źródło
Zasadniczo, ponowne zainstalowanie bez kary po dokonaniu selekcji zmiennych za pomocą Lasso jest uważane za „oszustwo”, ponieważ już spojrzałeś na dane, a uzyskane wartości p i przedziały ufności nie są prawidłowe w zwykłym znaczeniu.
Zatem dwukrotne zerkanie na dane nie stanowi problemu. Będziesz musiał sprawdzić, czy dla twojego problemu warunki określone w wstrzymaniu papieru, czy nie.
(W artykule jest także wiele przydatnych odniesień)
Odniesienie:
Zhao, S., Shojaie, A., i Witten, D. (2017). W obronie tego, co nie do obrony: bardzo naiwne podejście do wnioskowania w wysokich wymiarach. Źródło: https://arxiv.org/pdf/1705.05543.pdf
źródło
Chciałem dodać kilka artykułów z literatury dotyczącej ortogonalnego / podwójnego uczenia maszynowego, która staje się popularna w literaturze Applied Econometrics.
Belloni, Alexandre, Victor Chernozhukov i Christian Hansen. „Wnioskowanie na temat efektów leczenia po selekcji wśród kontroli wysokowymiarowych”. Przegląd badań ekonomicznych 81.2 (2014): 608–650.
Ten artykuł dotyczy teoretycznych właściwości oszacowania OLS wpływu zmiennej po wybraniu „innych” elementów sterujących za pomocą LASSO.
Victor Chernozhukov, Denis Chetverikov, Mert Demirer, Esther Duflo, Christian Hansen, Whitney Newey, James Robins, Double / debiased machine learning dla leczenia i parametrów strukturalnych, The Econometrics Journal, tom 21, numer 1, 1 lutego 2018, strony C1 – C68 , https://doi.org/10.1111/ectj.12097
Opracowuje to kompleksową teorię stosowania szeregu metod nieparametrycznych (algorytmów ML) do nieliniowej kontroli nad uciążliwym parametrem wielowymiarowym (czynniki zakłócające), a następnie do badania wpływu określonej zmiennej towarzyszącej na wynik. Dotyczą one szkieletów częściowo liniowych i szkieletów całkowicie parametrycznych. Rozważają również sytuacje, w których zmienna odsetek jest zagmatwana.
źródło