Testowanie różnicy w AIC dwóch nie zagnieżdżonych modeli

12

Cały sens AIC lub innego kryterium informacyjnego polega na tym, że im mniej, tym lepiej. Więc jeśli mam dwa modele M1: y = a0 + XA + e i M2: y = b0 + ZB + u, a jeśli AIC pierwszego (A1) jest mniejszy niż drugiego (A2), to M1 ma lepsze dopasowanie z punktu widzenia teorii informacji. Ale czy istnieje jakiś punkt odniesienia dla różnicy A1-A2? Ile mniej znaczy mniej? Innymi słowy, czy istnieje test na (A1-A2) inny niż tylko gałki ocznej?

Edycja: Peter / Dmitrij ... Dzięki za odpowiedź. W rzeczywistości jest to przypadek, w którym moja wiedza merytoryczna jest sprzeczna z moją wiedzą statystyczną. Zasadniczo problemem nie jest wybór między dwoma modelami, ale sprawdzenie, czy dwie zmienne, które w dużej mierze są równoważne, dodają równoważne ilości informacji (w rzeczywistości jedna zmienna w pierwszym modelu i wektor w drugim. Pomyśl o przypadku kilka zmiennych w stosunku do ich indeksu). Jak zauważył Dmitrij, najlepszym zakładem wydaje się być test Coxa. Ale czy istnieje sposób na przetestowanie różnicy między zawartością informacyjną dwóch modeli?

user3671
źródło
Możesz być także zainteresowany sprawdzeniem Wagonmakers i in. (2004). Ocena naśladowania modelu za pomocą parametrycznego ładowania początkowego. Journal of Mathematical Psychology, 48 , 28-50. ( pdf ).
gung - Przywróć Monikę

Odpowiedzi:

13

Czy pytanie o ciekawość oznacza, że ​​moja odpowiedź tutaj nie odpowiada ? Jeśli nie...

Dalsze dochodzenie w tej skomplikowanej kwestii wykazała, że nie istnieją powszechnie stosowanym zasada-of-kciuk, które stwierdza dwa modele są nie do odróżnienia od I C kryterium, jeśli różnica | A I C 1 - A I C 2 | < 2 . To samo, co faktycznie przeczytasz w artykule Wikipedii na temat A I C (uwaga, że ​​link można kliknąć!). Tylko dla tych, którzy nie klikają linków:AIC|AIC1AIC2|<2AIC

szacuje względne poparcie dla modelu. Aby zastosować to w praktyce, zaczynamy od zestawu modeli kandydujących, a następnie znajdujemy odpowiadające imwartości A I C modeli. Następnie określić minimalną I C wartość. Wyboru modelu można następnie dokonać w następujący sposób.AICAICAIC

Z grubsza ogólną zasadą jest, że modele posiadające w granicach minimum mają znaczne wsparcie i powinny być brane pod uwagę przy dokonywaniu wniosków. Modele posiadające w granicach około minimum mają znacznie mniejsze wsparcie, podczas gdy modele z powyżej minimum nie mają zasadniczo żadnego wsparcia i mogą zostać pominięte w dalszych rozważaniach lub przynajmniej nie wyjaśnić pewnych istotnych różnic strukturalnych w dane.AICA I C 4 - 7 A I C > 1012AIC47AIC>10

Bardziej ogólne podejście jest następujące ...

Oznacz wartości modeli kandydujących według , . Niech oznacza minimum tych wartości. Następnie można interpretować jako względne prawdopodobieństwo, że ty model minimalizuje (oczekiwaną szacowaną) utratę informacji.A I C 1 A I C 2 , A I C 3 , , A I C R A I C m i n e ( A I C m i n - A I C i ) / 2 iAICAIC1AIC2,AIC3,,AICRAICmine(AICminAICi)/2i

Załóżmy na przykład, że w zestawie kandydackim znajdowały się trzy modele o wartościach , i . Następnie drugi model to razy bardziej prawdopodobny niż pierwszy model w celu zminimalizowania utraty informacji, a trzeci model to razy tak prawdopodobne, jak pierwszy model minimalizujący utratę informacji. W takim przypadku możemy pominąć trzeci model i rozważyć średnią ważoną pierwszych dwóch modeli, odpowiednio o wagach i . Wnioskowanie statystyczne byłoby wówczas oparte na ważonym multimodelu.100 102 110 E ( 100 - 102 ) / 2 = 0,368 E ( 100 - 110 ) / 2 = 0,007 1 0,368AIC100102110e(100102)/2=0.368e(100110)/2=0.00710.368

Ładne wyjaśnienie i przydatne sugestie, moim zdaniem. Po prostu nie bój się czytać tego, co można kliknąć!

W uzupełnieniu , nuta po raz kolejny, jest mniej korzystne dla zbiorów danych na dużą skalę. Oprócz przydatne może być zastosowanie wersji kryterium (możesz użyć tego kodu lub użyć wzoru , gdzie to liczba szacowanych parametrów). Ogólna zasada będzie jednak taka sama. B I C A I C A I C c A I C c = A I C + 2 p ( p + 1 )AICBICAICAICcR pAICc=AIC+2p(p+1)np1p

Dmitrij Celov
źródło
Cześć Dmitrij ... Wiedziałem, że to zauważysz. W rzeczywistości twoja odpowiedź na pierwotne pytanie sprawiła, że ​​pociąg się toczył. Myślałem, że będzie to interesujące osobne pytanie. Problem, z którym się zmagam, polega na tym, że testy statystyczne (w tym test Coxa) są częste, więc można przetestować różnice między dwoma modelami na określonym poziomie istotności. Ale AIC / BIC są oparte na prawdopodobieństwie i wydaje mi się, że liczb nie można bezpośrednio porównać, z wyjątkiem, jak zauważyłeś, ogólnej zasady. Ponieważ miary IC są zależne od skali, wartość bezwzględna (2) może być problematyczna, prawda?
user3671,
@ użytkownik, wartość bezwzględna nie stanowi problemu. Możesz skorzystać z sugestii względnego prawdopodobieństwa, więc prawdopodobnie będziesz bardziej pewny tego niż jakiejś fajnej wartości . Przez efekt skali rozumiesz, kiedy kryterium jest mniej stronnicze w małych próbkach i spójne w dużych? Zamiast tego wypróbuj spójny a dla małych próbek będzie również dobrą alternatywą. Zasada kciuka jest nadal użyteczna. 2 B I C A I C c22BICAICc
Dmitrij Celov
1
@DmitrijCelov (+1 jakiś czas temu) fajna odpowiedź - dziękuję za wklejenie tekstu, ponieważ Wikipedia nie ma już punktów omówionych w pierwszych dwóch akapitach. Usunięty akapit cytowano jako s. 446: Burnham, K. P., and Anderson, D.R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7. a pre-revision Wiki strona jest tutaj
James Stanley
Powinienem zauważyć, że nie czytałem książki Burnham, a stare odniesienie na Wiki sugerowało, że cytowany tekst był parafrazą. Do Twojej wiadomości strona Wiki została zredagowana o 16:52, 15 kwietnia 2011 r.
James Stanley
Czy mógłbyś pomóc w odpowiedzi na to pytanie? stats.stackexchange.com/questions/349883/…
Tripartio
8

Myślę, że może to być próba zdobycia tego, czego tak naprawdę nie chcesz.

Wybór modelu nie jest nauką. Z wyjątkiem rzadkich okoliczności nie ma jednego idealnego modelu ani nawet jednego „prawdziwego” modelu; rzadko jest nawet jeden „najlepszy” model. Dyskusje na temat AIC vs. AICc vs. BIC vs. SBC vs. cokolwiek, co pozostawia mnie nieco bezradnego. Myślę, że chodzi o to, aby uzyskać DOBRE modele. Następnie wybierasz spośród nich na podstawie połączenia merytorycznej wiedzy specjalistycznej i pomysłów statystycznych. Jeśli nie masz wiedzy merytorycznej (rzadko tak jest; znacznie rzadziej niż większość ludzi przypuszcza), wybierz najniższy AIC (lub AICc lub cokolwiek innego). Ale zwykle masz trochę wiedzy - inaczej dlaczego badasz te konkretne zmienne?

Peter Flom - Przywróć Monikę
źródło
2
+1 za podkreślenie potrzeby zarówno wiedzy statystycznej, jak i merytorycznej.
chl