Używam ukaranego pakietu R, aby uzyskać skurczone oszacowania współczynników dla zbioru danych, w którym mam dużo predyktorów i mało wiem, które z nich są ważne. Po wybraniu parametrów dostrajania L1 i L2 i jestem zadowolony z moich współczynników, czy istnieje statystycznie rozsądny sposób na podsumowanie dopasowania modelu z czymś w rodzaju R-kwadrat?
Ponadto jestem zainteresowany przetestowaniem ogólnego znaczenia modelu (tzn. Czy R² = 0, czy wykonam wszystkie = 0).
Przeczytałem odpowiedzi na podobne pytanie zadane tutaj , ale nie całkiem odpowiadało na moje pytanie. Jest to doskonały poradnik na opakowaniu R że używam tutaj , a autor Jelle Goeman miał następującą notatkę na koniec samouczka dotyczącego przedziałów ufności z ukaranych modeli regresji:
To bardzo naturalne pytanie, aby zadać standardowe błędy współczynników regresji lub innych oszacowanych wielkości. Zasadniczo takie standardowe błędy można łatwo obliczyć, np. Za pomocą paska startowego.
Mimo to ten pakiet celowo ich nie udostępnia. Powodem tego jest to, że standardowe błędy nie mają większego znaczenia w przypadku silnie tendencyjnych oszacowań, takich jak wynikające z karanych metod szacowania. Ocena karana to procedura, która zmniejsza wariancję estymatorów poprzez wprowadzenie istotnego błędu. Błąd systematyczny każdego estymatora jest zatem głównym składnikiem jego średniego błędu kwadratu, podczas gdy jego wariancja może przyczyniać się tylko niewielką część.
Niestety, w większości zastosowań regresji karnej niemożliwe jest uzyskanie wystarczająco dokładnego oszacowania błędu. Wszelkie obliczenia oparte na bootstrapie mogą dać jedynie ocenę wariancji szacunków. Wiarygodne szacunki błędu są dostępne tylko wtedy, gdy dostępne są wiarygodne obiektywne szacunki, co zwykle nie ma miejsca w sytuacjach, w których stosuje się szacunki karane.
Zgłoszenie standardowego błędu w oszacowaniu podlegającym karze opowiada zatem tylko część historii. Może dawać błędne wrażenie dużej precyzji, całkowicie ignorując niedokładność spowodowaną odchyłką. Z pewnością błędem jest tworzenie oświadczeń o zaufaniu, które opierają się wyłącznie na ocenie wariancji oszacowań, takich jak przedziały ufności oparte na bootstrapie.
źródło
Odpowiedzi:
Moja pierwsza reakcja na podane przez Jelle komentarze to „bias-schmias”. Musisz uważać na to, co rozumiesz przez „dużą liczbę predyktorów”. Może to być „duże” w odniesieniu do:
Moja reakcja była oparta na „dużym” w odniesieniu do punktu 1. Jest tak, ponieważ w tym przypadku zwykle warto obniżyć odchylenie w celu zmniejszenia otrzymanej wariancji. Odchylenie jest ważne tylko „na dłuższą metę”. Więc jeśli masz małą próbkę, to kogo obchodzi „długoterminowa”?
Idealnie ten „błąd prognozowania” powinien opierać się na kontekście sytuacji modelowania. Zasadniczo chcesz odpowiedzieć na pytanie „Jak dobrze mój model reprodukuje dane?”. Kontekst twojej sytuacji powinien być w stanie powiedzieć ci, co „jak dobrze” oznacza w prawdziwym świecie. Następnie musisz przełożyć to na jakieś równanie matematyczne.
źródło
Pakiet R hdm i pakiet Stata lassopack wspierają wspólny test istotności dla lasso. Teoria pozwala, aby liczba predyktorów była duża w stosunku do liczby obserwacji. Teoria leżąca u podstaw testu i sposób jego zastosowania wyjaśniono pokrótce w dokumentacji HDM . Krótko mówiąc, opiera się na ramach karnej teorii opartej na teorii (opracowanej przez Belloni, Czernozhukova i Hansena i in.). Ten artykuł jest dobrym punktem wyjścia, jeśli chcesz dowiedzieć się więcej o teorii leżącej u podstaw. Jedynym minusem jest to, że test działa tylko dla lasso i (lasso z pierwiastkiem kwadratowym). Nie w przypadku innych metod regresji karnej.
Belloni, A., Chen, D., Czernozhukov, V. and Hansen, C. (2012), Rzadkie modele i metody dla instrumentów optymalnych z zastosowaniem do wybitnej domeny. Econometrica, 80: 2369-2429.
źródło