Powiedzmy, że mamy GLMM
mod1 <- glmer(y ~ x + A + (1|g), data = dat)
mod2 <- glmer(y ~ x + B + (1|g), data = dat)
Te modele nie są zagnieżdżone w zwykłym sensie:
a <- glmer(y ~ x + A + (1|g), data = dat)
b <- glmer(y ~ x + A + B + (1|g), data = dat)
więc nie możemy zrobić tego, anova(mod1, mod2)
co byśmy zrobili anova(a ,b)
.
Czy zamiast AIC możemy powiedzieć, który model jest najlepszy?
źródło
Dla porównania, kontrargument: Brian Ripley stwierdza w „Wybieranie spośród dużych klas modeli” s. 6-7
Ripley, BD 2004. „Wybieranie spośród dużych klas modeli”. W Methods and Models in Statistics , pod redakcją N. Adamsa, M. Crowdera, D. J. Handa i D. Stephensa, 155–70. Londyn, Anglia: Imperial College Press.
Akaike, H. (1973) Teoria informacji i rozszerzenie zasady maksymalnego prawdopodobieństwa. W drugim międzynarodowym sympozjum na temat teorii informacji (Eds BN Petrov i F. Cáski), s. 267–281, Budapeszt. Akademiai Kaidó. Przedruk w Przełomie w statystyce , eds Kotz, S. I Johnson, NL (1992), tom I, str. 599–624. Nowy Jork: Springer.
źródło
Wygląda na to, że Akaike uważało, że AIC jest użytecznym narzędziem do porównywania modeli zagnieżdżonych.
(Akaike 1985, str. 399)
Akaike, Hirotugu. „Prognozowanie i entropia”. Wybrane dokumenty Hirotugu Akaike. Springer, New York, NY, 1985. 387-410.
źródło