Cały sens AIC lub innego kryterium informacyjnego polega na tym, że im mniej, tym lepiej. Więc jeśli mam dwa modele M1: y = a0 + XA + e i M2: y = b0 + ZB + u, a jeśli AIC pierwszego (A1) jest mniejszy niż drugiego (A2), to M1 ma lepsze dopasowanie z punktu widzenia teorii informacji. Ale czy istnieje jakiś punkt odniesienia dla różnicy A1-A2? Ile mniej znaczy mniej? Innymi słowy, czy istnieje test na (A1-A2) inny niż tylko gałki ocznej?
Edycja: Peter / Dmitrij ... Dzięki za odpowiedź. W rzeczywistości jest to przypadek, w którym moja wiedza merytoryczna jest sprzeczna z moją wiedzą statystyczną. Zasadniczo problemem nie jest wybór między dwoma modelami, ale sprawdzenie, czy dwie zmienne, które w dużej mierze są równoważne, dodają równoważne ilości informacji (w rzeczywistości jedna zmienna w pierwszym modelu i wektor w drugim. Pomyśl o przypadku kilka zmiennych w stosunku do ich indeksu). Jak zauważył Dmitrij, najlepszym zakładem wydaje się być test Coxa. Ale czy istnieje sposób na przetestowanie różnicy między zawartością informacyjną dwóch modeli?
źródło
Odpowiedzi:
Czy pytanie o ciekawość oznacza, że moja odpowiedź tutaj nie odpowiada ? Jeśli nie...
Dalsze dochodzenie w tej skomplikowanej kwestii wykazała, że nie istnieją powszechnie stosowanym zasada-of-kciuk, które stwierdza dwa modele są nie do odróżnienia od I C kryterium, jeśli różnica | A I C 1 - A I C 2 | < 2 . To samo, co faktycznie przeczytasz w artykule Wikipedii na temat A I C (uwaga, że link można kliknąć!). Tylko dla tych, którzy nie klikają linków:AIC |AIC1−AIC2|<2 AIC
Ładne wyjaśnienie i przydatne sugestie, moim zdaniem. Po prostu nie bój się czytać tego, co można kliknąć!
W uzupełnieniu , nuta po raz kolejny, jest mniej korzystne dla zbiorów danych na dużą skalę. Oprócz przydatne może być zastosowanie wersji kryterium (możesz użyć tego kodu lub użyć wzoru , gdzie to liczba szacowanych parametrów). Ogólna zasada będzie jednak taka sama. B I C A I C A I C c A I C c = A I C + 2 p ( p + 1 )A jado B Ido A jado A jadodo A jadoc = A Ido+ 2 p ( p + 1 )n - p - 1 p
R
pźródło
Burnham, K. P., and Anderson, D.R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7.
a pre-revision Wiki strona jest tutajMyślę, że może to być próba zdobycia tego, czego tak naprawdę nie chcesz.
Wybór modelu nie jest nauką. Z wyjątkiem rzadkich okoliczności nie ma jednego idealnego modelu ani nawet jednego „prawdziwego” modelu; rzadko jest nawet jeden „najlepszy” model. Dyskusje na temat AIC vs. AICc vs. BIC vs. SBC vs. cokolwiek, co pozostawia mnie nieco bezradnego. Myślę, że chodzi o to, aby uzyskać DOBRE modele. Następnie wybierasz spośród nich na podstawie połączenia merytorycznej wiedzy specjalistycznej i pomysłów statystycznych. Jeśli nie masz wiedzy merytorycznej (rzadko tak jest; znacznie rzadziej niż większość ludzi przypuszcza), wybierz najniższy AIC (lub AICc lub cokolwiek innego). Ale zwykle masz trochę wiedzy - inaczej dlaczego badasz te konkretne zmienne?
źródło