Rozważmy standardowy model regresji wielokrotnej gdzie , więc normalność, homoscedastyczność i nieskorelacja błędów pozostają w mocy.
Załóżmy, że wykonujemy regresję grzbietu, dodając tę samą niewielką ilość do wszystkich elementów przekątnej :
Istnieją pewne wartości dla których współczynnik grzbietu ma mniejszy średni błąd kwadratowy niż te uzyskane przez OLS, chociaż jest tendencyjnym estymatorem . W praktyce jest uzyskiwane przez walidację krzyżową.
Oto moje pytanie: jakie są założenia modelu kalenicy? Aby być bardziej konkretnym,
Czy wszystkie założenia dotyczące zwykłego najmniejszego kwadratu (OLS) są prawidłowe z regresją kalenicy?
Jeśli tak, w przypadku pytania 1, w jaki sposób testujemy homoscedastyczność i brak autokorelacji z tendencyjnym estymatorem ?
Czy jest jakaś praca nad testowaniem innych założeń OLS (homoscedastyczność i brak autokorelacji) w regresji grzbietu?
Odpowiedzi:
Jakie jest założenie procedury statystycznej?
Nie jestem statystykiem, więc może to być źle, ale myślę, że słowo „założenie” jest często używane dość nieformalnie i może odnosić się do różnych rzeczy. Dla mnie „założenie” jest, ściśle mówiąc, czymś, co może mieć jedynie wynik teoretyczny (twierdzenie).
Kiedy ludzie mówią o założeniach regresji liniowej ( patrz tutaj do szczegółowej dyskusji), zwykle odnoszą się do twierdzenia Gaussa-Markowa, które mówi, że przy założeniach błędów nieskorelowanych, równych wariancji, błędów zerowych, OLS jest NIEBIESKI , tj. jest bezstronny i ma minimalną wariancję. Poza kontekstem twierdzenia Gaussa-Markowa nie jest dla mnie jasne, co w ogóle oznaczałoby „założenie regresji”.
Założenia technik regresji karnej
Rozważ teraz dowolną technikę regresji regulowanej: regresję grzbietu, lasso, siatkę elastyczną, regresję głównych składników, regresję częściowych najmniejszych kwadratów itp. Itd. Cały sens tych metod polega na uprzedzonym oszacowaniu parametrów regresji i nadziei na zmniejszenie oczekiwanego strata poprzez wykorzystanie kompromisu wariancji odchylenia.
Ale co z matematycznym wynikiem, że regresja kalenicy zawsze bije OLS?
Ten wynik w rzeczywistości nie wymaga żadnych założeń i zawsze jest prawdziwy, ale dziwne byłoby twierdzenie, że regresja kalenicowa nie ma żadnych założeń.
Okej, ale skąd mam wiedzieć, czy mogę zastosować regresję grzbietu, czy nie?
Powiedziałbym, że nawet jeśli nie możemy mówić o założeniach, możemy mówić o praktycznych zasadach . Dobrze wiadomo, że regresja grzbietowa jest najbardziej przydatna w przypadku regresji wielokrotnej ze skorelowanymi predyktorami. Powszechnie wiadomo, że ma tendencję do przewyższania OLS, często z dużym marginesem. Będzie miał tendencję do przewyższania go nawet w przypadku heteroscedastyczności, skorelowanych błędów lub cokolwiek innego. Zatem prosta reguła mówi, że jeśli masz dane wielokoliniowe, regresja kalenicy i walidacja krzyżowa są dobrym pomysłem.
Prawdopodobnie istnieją inne przydatne zasady praktyczne i sztuczki handlowe (takie jak np. Co robić z wartościami odstającymi brutto). Ale to nie są założenia.
źródło
Chciałbym przekazać pewne informacje z perspektywy statystyki. Jeśli Y ~ N (Xb, sigma2 * In), to średni błąd kwadratowy b ^ wynosi
Jeśli XT X jest w przybliżeniu zero, to inv (XT X) będzie bardzo duże. Zatem oszacowanie parametru b nie jest stabilne i może powodować następujący problem.
Aby ustabilizować szacunkową najmniejszą kwadratową wartość b, wprowadzamy regresję grzbietu, szacując wartość
b^(k)=inv(X.T*X+kI)*X.T*Y.
I możemy udowodnić, że zawsze istnieje wartość ak, która powoduje błąd średni kwadratW uczeniu maszynowym regresja kalenicy nazywa się regularyzacją L2 i ma na celu walkę z nadmiernie dopasowanymi problemami powodowanymi przez wiele funkcji.
źródło