Zazwyczaj używam BIC, ponieważ rozumiem, że bardziej ceni parsimony niż AIC. Jednak zdecydowałem się teraz zastosować bardziej kompleksowe podejście i chciałbym również użyć AIC. Wiem, że Raftery (1995) przedstawił dobre wytyczne dla różnic BIC: 0-2 jest słaby, 2-4 jest pozytywnym dowodem na lepszy model jednego itd.
Zajrzałem do podręczników i wydają się dziwne w AIC (wygląda na to, że większa różnica jest słaba, a mniejsza różnica w AIC oznacza, że jeden model jest lepszy). Jest to sprzeczne z tym, co wiem, że mnie nauczono. Rozumiem, że chcesz niższy AIC.
Czy ktoś wie, czy wytyczne Raftery obejmują również AIC, lub gdzie mogę przytoczyć pewne wytyczne dotyczące „siły dowodów” dla jednego modelu w porównaniu z innym?
I tak, odcięcia nie są świetne (uważam je za irytujące), ale są pomocne przy porównywaniu różnych dowodów.
źródło
Odpowiedzi:
AIC i BIC posiadają tę samą interpretację pod względem porównania modeli. Oznacza to, że większa różnica w AIC lub BIC wskazuje na mocniejsze dowody dla jednego modelu nad drugim (im niższa, tym lepsza). Po prostu AIC nie penalizuje liczby parametrów tak mocno, jak BIC. Istnieje również poprawka do AIC (AICc), która jest stosowana dla mniejszych próbek. Więcej informacji na temat porównania AIC / BIC można znaleźć tutaj .
źródło
Mówisz o dwóch różnych rzeczach i mieszasz je. W pierwszym przypadku masz dwa modele (1 i 2) i uzyskałeś ich AIC, takie jak i A I C 2 . JEŻELI chcesz porównać te dwa modele w oparciu o ich AIC, wówczas preferowany będzie model z niższym AIC, tj. Jeśli A I C 1 < A I C 2, to wybierz model 1 i odwrotnie. W 2. przypadku, masz zestaw modeli kandydujących jak modele ( 1 , 2 , . . . , N )AIC1 AIC2 AIC1<AIC2
(1,2,...,n) i dla każdego modelu obliczasz różnice AIC jako , gdzie A I C i jest AIC dla i- tego modelu, a A I C m i n jest minimum AIC między wszystkie modele. Teraz model z hemibursztynianu i > 10 mają żadnego wsparcia i może być, pominięte z dalszego rozpatrywania, jak wyjaśniono w wyborze modelu i multi-model Inference: A Practical Approach Informacja-teoretycznaΔi=AICi−AICmin AICi i AICmin Δi>10 autor: Kenneth P. Burnham, David R. Anderson, strona 71. Im większe jest , tym słabszy byłby twój model. Tutaj najlepszy model ma Δ i ≡ Δ m i n ≡ 0.Δi Δi≡Δmin≡0.
źródło
Zasadniczo nigdy nie używam AIC ani BIC obiektywnie do opisania odpowiedniego dopasowania do modelu. I nie używać tych układów scalonych porównać względne dopasowanie dwóch modeli predykcyjnych. Jeśli chodzi o to, czy chodzi o AIC „2” czy „4”, jest ono całkowicie kontekstowe. Jeśli chcesz się dowiedzieć, jak pasuje „dobry” model, zawsze możesz (należy) użyć symulacji. Twoje rozumienie AIC jest prawidłowe. AIC otrzymuje dodatni wkład z parametrów i ujemny wkład z prawdopodobieństwa. To, co próbujesz zrobić, to zmaksymalizować prawdopodobieństwo bez ładowania modelu za pomocą szeregu parametrów. Tak więc, moim zdaniem pęknięcie bańki jest takie, że odcięcia dla AIC nie są dobre z kontekstu.
źródło
Oto pokrewne pytanie, kiedy-czy-należy-wybrać-modele-minimalizując-a-aic?. Daje ogólne wyobrażenie o tym, co ludzie nie do poznania w świecie akademickim uważają za właściwe do pisania i jakie odniesienia pozostawić jako ważne.
Zasadniczo liczą się różnice między prawdopodobieństwami lub AIC, a nie ich wartości bezwzględne. Brakuje ważnego słowa „różnica” w swoim „BIC: 0-2 jest słaby” w pytaniu - sprawdź TABELĘ 6 Raftery - i dziwne, że nikt nie chce tego poprawić.
Ja sam nauczyłem się szukać MAICE (Minimalna ocena AIC - jak to nazywał Akaike). Więc co? Oto, co jedna słynna osoba napisała do nieznanej damy:
Moi nauczyciele nigdy nie słyszeli o artykułach zatytułowanych „Test, czy dwa AIC różnią się znacznie” i nawet nie pamiętam, żeby kiedykolwiek nazywali AIC statystyką, która miałaby rozkład próbkowania i inne właściwości. Nauczono mnie, że AIC jest kryterium, które należy zminimalizować, jeśli to możliwe w jakiś automatyczny sposób.
Jeszcze inną ważną kwestią, którą, jak sądzę, zostało tu wyrażone kilka lat temu przez IrishStat (z pamięci, więc przepraszam, jeśli się mylę, ponieważ nie znalazłem tej odpowiedzi) jest to, że AIC, BIC i inne kryteria zostały wyprowadzone dla różnych celów i w różnych warunkach (założeniach), więc często nie można ich używać zamiennie, jeśli powiedzmy, że twoim celem jest prognozowanie. Nie możesz po prostu preferować czegoś nieodpowiedniego.
Moje źródła pokazują, że użyłem cytatu dla Burnhama i Andersona (2002, s. 70), aby napisać, że delta (różnice AIC) w zakresie 0-2 ma znaczące poparcie; delta w granicach 4-7 znacznie mniej wsparcia i delta większa niż 10 zasadniczo nie ma wsparcia. Napisałem również, że „autorzy omówili również warunki, w których wytyczne te mogą być przydatne”. Książka jest cytowana w odpowiedzi Stat, którą uznałem za najbardziej odpowiednią.
źródło
Jeśli chodzi o kryteria informacyjne, oto, co mówi SAS :
Istnieją dwie procedury testowania modelu porównawczego: a) test Vuong ib) nieparametryczny test Clarke'a. Zobacz ten artykuł, aby uzyskać szczegółowe informacje.
źródło