Znalazłem potencjalnie sprzeczne definicje dla statystyki walidacji krzyżowej (CV) i statystyki uogólnionej walidacji krzyżowej (GCV) związanej z modelem liniowym (z normalnym, homoscedastycznym wektorem błędu \ boldsymbol \ varepsilon ).ε
Z jednej strony Golub, Heath i Wahba definiują oszacowanie GCV jako (s. 216)
minimalizator podany przez
gdzie
Z drugiej strony Efron definiuje to samo pojęcie, co (s. 24), ale przypisuje wprowadzenie tego pojęcia Cravenowi i Wahbie, gdzie jego definicja (s. 377) jest zasadniczo taka sama jak wyżej wymieniona definicja Goluba, Heatha i Wahby.
Czy to oznacza, że minimalizuje ?
Podobnie Golub, Heath i Wahba definiują oszacowanie CV (s. 217) jako minimalizator
gdzie jest wartością szacunkową
z z th punkt danych pominięte.
Autorzy przypisują wprowadzenie oszacowania CV (zwanego także oszacowaniem PRESS) Allenowi („PRESS Allena”, ibid.). Jednak w pracy Allena oszacowanie PRESS jest zdefiniowane (s. 126) jako (w artykule Efrona jest to zdefiniowane jako (s. 24)).
Znów, czy to oznacza, że minimalizuje ?
Allen, David M. Związek między wyborem zmiennych i analizowaniem danych a metodą prognozowania. Technometrics, tom. 16, nr 1 (luty 1974 r.), S. 125–127
Craven, Peter and Wahba, Grace. Wygładzanie zaszumionych danych za pomocą funkcji splajnu. Numerische Mathematik 31, (1979), s. 377-403
Efron, Bradley. Jak stronniczy jest pozorny poziom błędu regresji logistycznej? Raport techniczny nr 232. Katedra Statystyki, Uniwersytet Stanforda (kwiecień 1985)
Golub, Gene H., Heath and Grace Wahba. Uogólniona walidacja krzyżowa jako metoda wyboru dobrego parametru kalenicy. Technometrics, tom. 21, nr 2 (maj 1979 r.), S. 215–223
źródło
Odpowiedzi:
Uważam, że komentarze wskazują na odpowiedź, ale nie mówią wprost. Więc będę tępy.
Cytowana tutaj formuła V jest specyficzna dla liniowej regresji kalenicy. Nie twierdzą, że jest to to samo, co PRESS, twierdzą, że jest to niezmienna rotacja wersja PRESS. Część „niezmienna rotacja” sprawia, że jest to uogólnione.
Artykuł Efrona dotyczy regresji logistycznej dostosowanej do tego kontekstu. Jeśli chcesz zobaczyć tłumaczenie matematyczne między tymi dwoma kontekstami, odpowiednią książką do przeczytania są: Elements of Statistics Learning, 2ed, autorstwa Hastie, Tibshirani i Freedman. Oferują tę książkę bezpłatnie, online: https://web.stanford.edu/~hastie/Papers/ESLII.pdf . Kolejną przydatną lekturą na temat GCV są Uogólnione modele addytywne autorstwa Simona Wooda. Jego leczenie ogólnie integruje GCV z zastosowaniami w regresji i regresji logistycznej.
Jeśli spojrzysz na książkę ESL, str. 244, zobaczysz w zasadzie tę samą symbolikę. Odnoszą się do tego dużego produktu matrycowego, który macie jako Matryca Smoothera (powiedziałbym, że jest to matryca Hat lub bliski kuzyn). Opisują Smoother jako mapowanie od doS y y^
Oferują formułę przybliżenia GCV:
W wielu modelach jest to bardzo podobne zachowanie do AIC. efektywna ilość parametrów.traceS
Powodzenia, odpisz, jeśli dowiesz się więcej.
źródło