Diagnostyka uogólnionych modeli liniowych (mieszanych) (w szczególności reszt)

25

Obecnie mam trudności ze znalezieniem odpowiedniego modelu dla danych trudnych do zliczenia (zmienna zależna). Próbowałem różnych modeli (modele efektów mieszanych są niezbędne dla mojego rodzaju danych), takich jak lmeri lme4(z transformacją logarytmiczną), a także uogólnionych liniowych modeli efektów mieszanych z różnymi rodzinami, takimi jak dwumian Gaussa lub ujemny.

Nie jestem jednak pewien, jak prawidłowo zdiagnozować powstałe napady. W Internecie znalazłem wiele różnych opinii na ten temat. Myślę, że diagnostyka regresji liniowej (mieszanej) jest dość prosta. Możesz iść dalej i analizować resztki (normalność), a także badać heteroscedastyczność, wykreślając dopasowane wartości w porównaniu do reszt.

Jednak jak właściwie to zrobić w przypadku wersji uogólnionej? Na razie skupmy się na negatywnej regresji dwumianowej (mieszanej). Widziałem tutaj dość przeciwstawne stwierdzenia dotyczące pozostałości:

  1. W Sprawdzaniu reszt pod kątem normalności w uogólnionych modelach liniowych wskazano w pierwszej odpowiedzi, że zwykłe reszty nie są zwykle rozkładane dla GLM; Myślę, że to jasne. Należy jednak zauważyć, że pozostałości Pearsona i dewiacji również nie powinny być normalne. Jednak druga odpowiedź stwierdza, że ​​reszty odchylenia powinny być normalnie rozkładane (w połączeniu z odniesieniem).

  2. To, że resztki odchyleń powinny być normalnie rozprowadzane, jest jednak wskazane w dokumentacji dla ? Glm.diag.plots (z bootpakietu R. ).

  3. W tym wpisie na blogu autor najpierw zbadał normalność tego, co, jak zakładam, to pozostałości Pearson dla modelu regresji mieszanych efektów NB. Zgodnie z oczekiwaniami (moim szczerym zdaniem) reszty nie okazały się normalne, a autor założył, że ten model jest źle dopasowany. Jednak, jak stwierdzono w komentarzach, reszty powinny być rozłożone zgodnie z ujemnym rozkładem dwumianowym. Moim zdaniem jest to najbliższe prawdy, ponieważ reszty GLM mogą mieć inne rozkłady niż normalne. Czy to jest poprawne? Jak sprawdzić tutaj takie rzeczy, jak heteroscedastyczność?

  4. Ostatni punkt (wykreślanie reszt względem kwantyli szacowanego rozkładu) podkreślono w Ben i Yohai (2004) . Obecnie wydaje mi się, że tak powinienem pójść.

Krótko mówiąc: w jaki sposób właściwie badasz dopasowanie modelu uogólnionych modeli regresji liniowej (mieszanej), ze szczególnym naciskiem na reszty?

społeczność
źródło
1
Resztki dla GLM nie są na ogół normalne (por. Tutaj ), ale należy pamiętać, że istnieje wiele rodzajów reszt dla GLM. Np. glm.diag.plotsMówi , że dotyczy to zboczonego odchylenia (podejrzewam, że rozróżnienie jest ważne). Rozumiem również, że masz dane zliczania ; możesz skupić się na tym fakcie. Np. Liczby mają być (w pewnym sensie) heteroscedastyczne. Wykresy diagnostyczne dla regresji zliczania powinny być dla Ciebie pomocne (chociaż nie dotyczą aspektu efektów mieszanych).
gung - Przywróć Monikę
Znam wspomniany post. Jednak istnieje również stwierdzenie, które sugeruje, że reszty (dewiacja) powinny być normalne „widzimy bardzo duże reszty i znaczne odchylenie reszty dewiacji od normalnej (wszystkie przemawiają przeciwko Poissonowi)”.
fsociety,

Odpowiedzi:

18

Ta odpowiedź nie opiera się na mojej wiedzy, ale raczej cytuje to, co Bolker i in. (2009) napisał we wpływowym artykule w czasopiśmie Trends in Ecology and Evolution . Ponieważ artykuł nie ma otwartego dostępu (chociaż wyszukiwanie go w Google Scholar może się powieść, pomyślałem, że zacytowałem ważne fragmenty, które mogą być pomocne w rozwiązaniu części pytań. Ponownie, to nie jest to, co wymyśliłem, ale myślę, że reprezentuje najlepsze skondensowane informacje o GLMM (w tym diagnostykę) w bardzo prostym i łatwym do zrozumienia stylu pisania. Jeśli w jakikolwiek sposób ta odpowiedź nie jest odpowiednia z jakiegokolwiek powodu, po prostu ją usunę. przydatne w odniesieniu do pytań dotyczących diagnostyki są wyróżnione wpogrubione .

Page 127:

Badacze mający do czynienia z nietypowymi danymi często wypróbowują skróty, takie jak przekształcanie danych w celu osiągnięcia normalności i jednorodności wariancji, przy użyciu testów nieparametrycznych lub opierając się na odporności klasycznej ANOVA na nienormalność dla zrównoważonych projektów [15]. Mogą całkowicie ignorować efekty losowe (popełniając w ten sposób pseudoreplikację) lub traktować je jako ustalone czynniki [16]. Jednak takie skróty mogą zawieść (np. Dane zliczające z wieloma wartościami zerowymi nie mogą być normalne przez transformację). Nawet jeśli im się powiedzie, mogą naruszyć założenia statystyczne (nawet testy nieparametryczne przyjmują założenia, np. Jednorodności wariancji między grupami) lub ograniczyć zakres wnioskowania (nie można ekstrapolować oszacowań ustalonych efektów na nowe grupy). Zamiast przekształcić swoje dane w klasyczne ramy statystyczne, badacze powinni stosować podejścia statystyczne, które pasują do ich danych. Uogólnione liniowe modele mieszane (GLMM) łączą właściwości dwóch ram statystycznych, które są szeroko stosowane w ekologii i ewolucji, liniowych modeli mieszanych (które zawierają efekty losowe) i uogólnionych modeli liniowych (które obsługują dane nienormalne za pomocą funkcji łącza i rodziny wykładniczej [np. rozkład normalny, Poissona lub dwumianowy]). GLMM są najlepszym narzędziem do analizy nietypowych danych, które dotyczą efektów losowych: wszystko, co należy zrobić, to w zasadzie określić rozkład, funkcję połączenia i strukturę efektów losowych. liniowe modele mieszane (które zawierają efekty losowe) i uogólnione modele liniowe (które obsługują dane nienormalne za pomocą funkcji łącza i wykładniczej rodziny [np. rozkład normalny, Poissona lub dwumianowy]). GLMM są najlepszym narzędziem do analizy nietypowych danych, które dotyczą efektów losowych: wszystko, co należy zrobić, to w zasadzie określić rozkład, funkcję połączenia i strukturę efektów losowych. liniowe modele mieszane (które zawierają efekty losowe) i uogólnione modele liniowe (które obsługują dane nienormalne za pomocą funkcji łącza i wykładniczej rodziny [np. rozkład normalny, Poissona lub dwumianowy]). GLMM są najlepszym narzędziem do analizy nietypowych danych, które dotyczą efektów losowych: wszystko, co należy zrobić, to w zasadzie określić rozkład, funkcję połączenia i strukturę efektów losowych.

Strona 129, ramka 1:

Do reszty wskazano overdispersion , więc refitted dane z modelu quasi-Poissona. Pomimo dużego oszacowanego parametru skali (10,8), wykresy eksploracyjne nie wykazały dowodów na wartości odstające na poziomie osobników, genotypów lub populacji. Zastosowaliśmy quasi-AIC (QAIC), wykorzystując jeden stopień swobody dla efektów losowych [49], dla efektu losowego, a następnie do wyboru modelu z efektem stałym.

Page 133, Ramka 4:

Poniżej przedstawiamy ogólne ramy budowy pełnego (najbardziej złożonego) modelu, pierwszy krok w analizie GLMM. Po tym procesie można następnie oceniać parametry i porównywać submodele zgodnie z opisem w tekście głównym i na rysunku 1.

  1. Określ ustalone (leczenie lub zmienne towarzyszące) i losowe (eksperymentalne, przestrzenne lub czasowe bloki, osobniki itp.). Uwzględnij tylko ważne interakcje. Ogranicz a priori model do możliwego poziomu złożoności, w oparciu o podstawowe zasady (> 5–6 poziomów efektu losowego na efekt losowy i> 10–20 próbek na poziom leczenia lub jednostkę eksperymentalną) i znajomość odpowiednich wielkości próbek uzyskanych z wcześniejsze badania [64, 65].

  2. Wybierz rozkład błędów i funkcję łącza (np. Rozkład Poissona i link dziennika dla danych zliczania, rozkład dwumianowy i link logu dla danych proporcji).

  3. Kontrola graficzna : czy wariancje danych (transformowane przez funkcję link) są jednorodne w poszczególnych kategoriach? Czy odpowiedzi przekształconych danych są liniowe w stosunku do ciągłych predyktorów? Czy są jakieś oddzielne osoby lub grupy? Czy rozkłady w grupach są zgodne z założonym rozkładem?

  4. Dopasuj GLM o stałym efekcie zarówno do pełnego (połączonego) zestawu danych, jak i do każdego poziomu czynników losowych [28,50]. Szacowane parametry powinny być w przybliżeniu normalnie rozłożone na grupy (parametry na poziomie grupy mogą mieć duże niepewności, szczególnie w przypadku grup o małej wielkości próby). Dostosuj model w razie potrzeby (np. Zmień funkcję łącza lub dodaj zmienne towarzyszące).

  5. Dopasuj pełny GLMM. Niewystarczająca pamięć komputera lub zbyt wolno: zmniejsz złożoność modelu. Jeśli oszacowanie się powiedzie na podzbiorze danych, spróbuj wydajniejszego algorytmu oszacowania (np. PQL, jeśli to właściwe). Niezgodność (ostrzeżenia lub błędy): zmniejsz złożoność modelu lub zmień ustawienia optymalizacji (upewnij się, że otrzymane odpowiedzi mają sens). Wypróbuj inne algorytmy szacowania. Komponenty zerowe wariancji lub osobliwość (ostrzeżenia lub błędy): sprawdź, czy model jest poprawnie zdefiniowany i możliwy do zidentyfikowania (tj. Wszystkie komponenty można teoretycznie oszacować). Zmniejsz złożoność modelu. Dodanie informacji do modelu (dodatkowe zmienne towarzyszące lub nowe grupowanie efektów losowych) może złagodzić problemy, podobnie jak centrowanie ciągłych zmiennych towarzyszących przez odjęcie ich średniej [50]. W razie potrzeby wyeliminuj losowe efekty z pełnego modelu, pomijanie (i) warunków o mniejszym znaczeniu biologicznym, (ii) warunków z bardzo małymi szacowanymi wariancjami i / lub dużą niepewnością, lub (iii) warunków interakcji. (Błędy konwergencji lub zerowe wariancje mogą wskazywać na niewystarczające dane.)

  6. χ2)

Wykresy resztkowe powinny być wykorzystane do oceny naddyspersji, a przekształcone wariancje powinny być jednorodne we wszystkich kategoriach. Nigdzie w artykule nie wspomniano, że reszty powinny być normalnie rozmieszczone.

Myślę, że powód, dla którego istnieją kontrastujące stwierdzenia, odzwierciedla fakt, że GLMM (strony 127-128) ...

... są zaskakująco trudne w użyciu nawet dla statystyk. Chociaż kilka pakietów oprogramowania może obsługiwać GLMM (Tabela 1), niewielu ekologów i biologów ewolucyjnych jest świadomych zakresu opcji lub możliwych pułapek. Przeglądając artykuły dotyczące ekologii i ewolucji od 2005 r. Znalezione przez Google Scholar, 311 z 537 analiz GLMM (58%) w jakiś sposób niewłaściwie wykorzystało te narzędzia (patrz materiał uzupełniający online).

A oto kilka w pełni sprawdzonych przykładów wykorzystujących GLMM, w tym diagnostyki.

Zdaję sobie sprawę, że ta odpowiedź bardziej przypomina komentarz i powinna być traktowana jako taka. Ale sekcja komentarzy nie pozwala mi dodać tak długiego komentarza. Ponieważ uważam, że ten artykuł ma wartość dla tej dyskusji (ale niestety za ścianą płatniczą), pomyślałem, że warto tu przytoczyć ważne fragmenty.

Cytowane artykuły:

[15] - GP Quinn, MJ Keough (2002): Experimental Design and Data Analysis for Biologists, Cambridge University Press.

[16] - MJ Crawley (2002): Obliczenia statystyczne: wprowadzenie do analizy danych za pomocą S-PLUS, John Wiley & Sons.

[28] - JC Pinheiro, DM Bates (2000): Modele z efektami mieszanymi w S i S-PLUS, Springer.

[49] - F. Vaida, S. Blanchard (2005): Informacje warunkowe podobne dla modeli z efektami mieszanymi. Biometrika, 92, ss. 351–370.

[50] - A. Gelman, J. Hill (2006): Analiza danych przy użyciu regresji i modeli wielopoziomowych / hierarchicznych, Cambridge University Press.

[64] - NJ Gotelli, AM Ellison (2004): A Primer of Ecological Statistics, Sinauer Associates.

[65] - FJ Harrell (2001): Strategie modelowania regresji, Springer.

[66] - JK Lindsey (1997): Zastosowanie uogólnionych modeli liniowych, Springer.

[67] - W. Venables, BD Ripley (2002): Modern Applied Statistics with S, Springer.

Stefan
źródło
Dzięki, to jest naprawdę pomocne, wiedziałem o kodujących przykładach Bolkera, ale jakoś nie o prawdziwym papierze. Nadal zastanawiam się jednak, w jaki sposób sprawdzanie graficzne stosuje się do danych na bardzo dużą skalę z tysiącami grup. Kilka artykułów (takich jak ten), które próbują podać kilka wskazówek, jak prawidłowo sprawdzić modele, dotyczy tylko danych na bardzo małą skalę. Wtedy o wiele łatwiej jest wybrać np. Grupy i wizualizować coś. Naprawdę uważam, że można wnieść dobry wkład naukowy, jeśli ktoś przejdzie w przyszłości bardziej złożony przykład.
fsociety,
1
Cieszę się, że było to przydatne! Myślę, że przedstawione przykłady są już dość złożone (przynajmniej dla mnie). Myślę, że większym problemem jest to, że większe zbiory danych i bardziej złożone modele mogą stać się niewykonalne obliczeniowo, jak wspomniano w tekście: „[...] aby znaleźć oszacowania ML, należy zintegrować prawdopodobieństwa dla wszystkich możliwych wartości efektów losowych. Dla GLMM obliczenia te są co najmniej powolne, aw najgorszym (np. w przypadku dużej liczby efektów losowych) niewykonalne obliczeniowo ”. To, co wydaje mi się niesamowite, i o czym należy pamiętać, to fakt, że używamy narzędzi, które są w trakcie aktywnych badań!
Stefan,
9

To stare pytanie, ale pomyślałem, że warto dodać, że opcja 4 sugerowana przez OP jest teraz dostępna w pakiecie DHARMa R (dostępna z CRAN, patrz tutaj ).

Pakiet sprawia, że ​​wizualne kontrole rezydualne sugerowane przez przyjętą odpowiedź są o wiele bardziej niezawodne / łatwe.

Z opisu pakietu:

Pakiet DHARMa wykorzystuje podejście oparte na symulacji do tworzenia łatwo interpretowalnych skalowanych reszt z dopasowanych uogólnionych liniowych modeli mieszanych. Obecnie obsługiwane są wszystkie klasy „merMod” z „lme4” („lmerMod”, „glmerMod”), „glm” (w tym „negbin” z „MASS”, ale z wyłączeniem quasi-dystrybucji) i klasy modeli „lm”. Alternatywnie można również wykonać symulacje utworzone zewnętrznie, np. Symulacje predykcyjne z tyłu z oprogramowania bayesowskiego, takie jak „JAGS”, „STAN” lub „BŁĘDY”. Otrzymane reszty są znormalizowane do wartości od 0 do 1 i mogą być interpretowane tak intuicyjnie, jak reszty z regresji liniowej. Pakiet zawiera również szereg funkcji wykresu i testowania typowego problemu z błędną specyfikacją modelu,

Florian Hartig
źródło
1
Bardzo dobry dodatek do tego wątku!
Stefan