Myślę, że jest to różnica, które testy są obliczane. car::Anova
używa testów Walda, podczas drop1
gdy model zastępuje pojedyncze terminy. John Fox napisał mi kiedyś, że testy Walda i testy modeli poprawionych przy użyciu testów współczynnika prawdopodobieństwa (tj. Strategii z drop1
) zgadzają się na modele liniowe, ale niekoniecznie nieliniowe. Niestety, ta poczta była poza listą i nie zawierała żadnych odniesień. Wiem jednak, że jego książka zawiera rozdział poświęcony testom Walda, który może zawierać pożądane informacje.
Pomoc car::Anova
mówi:
Testy typu II są obliczane zgodnie z zasadą marginalności, testując każdy termin po wszystkich innych, z wyjątkiem ignorowania krewnych wyższego rzędu; tak zwane testy typu III naruszają marginesowość, testując każdy termin w modelu po wszystkich pozostałych. Ta definicja testów typu II odpowiada testom opracowanym przez SAS dla modeli analizy wariancji, w których wszystkie predyktory są czynnikami, ale nie bardziej ogólnie (tj. Gdy istnieją predyktory ilościowe). Bądź bardzo ostrożny w formułowaniu modelu dla testów typu III, w przeciwnym razie testowane hipotezy nie będą miały sensu.
Niestety nie mogę odpowiedzieć na drugie lub trzecie pytanie, ponieważ chciałbym o tym wiedzieć.
Zaktualizuj komentarz dotyczący ponownego gromadzenia :
Nie ma testów Wald, LR i F dla uogólnionych modeli mieszanych. Anova
po prostu pozwala "chisq"
i "F"
testuje modele mieszane (tj. "mer"
obiekty zwracane przez lmer
). Sekcja użytkowania mówi:
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
Ponieważ jednak testy F dla mer
obiektów są obliczane przez pbkrtest
, co według mojej wiedzy działa tylko dla liniowych modeli mieszanych, Anova
dla GLMM powinny zawsze powracać chisq
(stąd nie widać różnicy).
Aktualizacja dotycząca pytania:
Moja poprzednia odpowiedź próbowała odpowiedzieć na twoje główne pytanie, różnicę między Anova()
i drop1()
. Ale teraz rozumiem, że chcesz sprawdzić, czy pewne ustalone efekty są znaczące, czy nie. R-sig-mieszany modelowanie FAQ mówi co następuje w odniesieniu do tego:
Testy pojedynczych parametrów
Od najgorszego do najlepszego:
- Wald Z-testy
- Dla zrównoważonych, zagnieżdżonych LMM, w których można obliczyć df: testy t-Wald
- Test współczynnika wiarygodności, albo przez skonfigurowanie modelu, aby parametr mógł być izolowany / upuszczany (przez anova lub drop1), lub poprzez obliczanie profili prawdopodobieństwa
- MCMC lub parametryczne przedziały ufności bootstrapu
Testy efektów (tj. Sprawdzenie, czy kilka parametrów jest równych zero)
Od najgorszego do najlepszego:
- Testy chi-kwadrat Walda (np. Samochód :: Anova)
- Test wskaźnika wiarygodności (przez anova lub drop1)
- Dla zrównoważonych, zagnieżdżonych LMM, w których można obliczyć df: warunkowe testy F.
- Dla LMM: warunkowe testy F z korekcją df (np. Kenward-Roger w pakiecie pbkrtest)
- MCMC lub porównania parametryczne lub nieparametryczne, bootstrap (nieparametryczne bootstrapowanie musi być ostrożnie zaimplementowane, aby uwzględnić czynniki grupujące)
(podkreślenie dodane)
Wskazuje to, że podejście do korzystania car::Anova()
z GLMM nie jest ogólnie zalecane, ale należy zastosować podejście wykorzystujące MCMC lub bootstrap. Nie wiem, czy pvals.fnc
z languageR
pakietu działa z GLMM, ale warto spróbować.