Powiedzmy, że mamy model
mod <- Y ~ X*Condition + (X*Condition|subject)
# Y = logit variable
# X = continuous variable
# Condition = values A and B, dummy coded; the design is repeated
# so all participants go through both Conditions
# subject = random effects for different subjects
summary(model)
Random effects:
Groups Name Variance Std.Dev. Corr
subject (Intercept) 0.85052 0.9222
X 0.08427 0.2903 -1.00
ConditionB 0.54367 0.7373 -0.37 0.37
X:ConditionB 0.14812 0.3849 0.26 -0.26 -0.56
Number of obs: 39401, groups: subject, 219
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 2.49686 0.06909 36.14 < 2e-16 ***
X -1.03854 0.03812 -27.24 < 2e-16 ***
ConditionB -0.19707 0.06382 -3.09 0.00202 **
X:ConditionB 0.22809 0.05356 4.26 2.06e-05 ***
Tutaj obserwujemy pojedyncze dopasowanie, ponieważ korelacja między efektem przechwytywania a efektami losowymi x wynosi -1. Teraz, zgodnie z tym przydatnym linkiem, jednym ze sposobów radzenia sobie z tym modelem jest usunięcie losowych efektów wyższego rzędu (np. X: ConditionB) i sprawdzenie, czy to robi różnicę podczas testowania osobliwości. Drugim jest zastosowanie podejścia bayesowskiego, np. blme
Pakietu, aby uniknąć osobliwości.
Jaka jest preferowana metoda i dlaczego?
Pytam o to, ponieważ użycie pierwszego lub drugiego prowadzi do różnych wyników - w pierwszym przypadku usunę efekt losowy X: ConditionB i nie będę w stanie oszacować korelacji między efektami losowymi X i X: ConditionB. Z drugiej strony użycie blme
pozwala mi zachować X: ConditionB i oszacować podaną korelację. Nie widzę powodu, dla którego powinienem nawet stosować nie-bayesowskie oszacowania i usuwać losowe efekty, gdy występują pojedyncze dopasowania, kiedy mogę oszacować wszystko za pomocą podejścia bayesowskiego.
Czy ktoś może mi wyjaśnić korzyści i problemy, stosując jedną z metod radzenia sobie z pojedynczymi napadami?
Dziękuję Ci.
źródło
Odpowiedzi:
Kiedy uzyskujesz pojedyncze dopasowanie, często oznacza to, że model jest przeregulowany - to znaczy struktura efektów losowych jest zbyt złożona, aby można ją było poprzeć danymi, co naturalnie prowadzi do porady, aby usunąć najbardziej złożoną część efektów losowych struktura (zwykle losowe stoki). Zaletą tego podejścia jest to, że prowadzi on do bardziej oszczędnego modelu, który nie jest nadmiernie dopasowany.
Jednak zanim cokolwiek zrobisz, czy masz dobry powód, by chcieć
X
,Condition
a ich interakcja różni się w zależności od tematu? Czy sugeruje to teoria generowania danych?Jeśli chcesz dopasować model do maksymalnej struktury efektów losowych i
lme4
uzyskać pojedyncze dopasowanie, to dopasowanie tego samego modelu do schematu Bayesa może bardzo dobrze poinformować Cię, dlaczegolme4
wystąpiły problemy, poprzez sprawdzenie wykresów śladowych i tego, jak dobrze różne oszacowania parametrów są zbieżne . Zaletą przyjęcia podejścia bayesowskiego jest to, że robiąc to, możesz odkryć problem z oryginalnym modelem, tj. powód, dla którego struktura maksymalnych efektów losowych nie jest obsługiwana przez dane) lub może odkryć, dlaczegolme4
nie można dopasować do modelu. Zetknąłem się z sytuacjami, w których model bayesowski nie jest dobrze zbieżny, chyba że zastosuje się pouczające priory - co może, ale nie musi być OK.Krótko mówiąc, oba podejścia mają swoje zalety.
Zawsze jednak zaczynam od miejsca, w którym początkowy model jest oszczędny i świadomy wiedzy ekspertów w dziedzinie, aby określić najbardziej odpowiednią strukturę efektów losowych. Określanie zmiennych grupujących jest stosunkowo łatwe, ale losowe zbocza zwykle nie muszą być uwzględniane. Uwzględnij je tylko, jeśli mają sens teoretyczny ORAZ są obsługiwane przez dane.
Edycja: W komentarzach wspomniano, że istnieją uzasadnione teoretyczne powody, aby dopasować się do maksymalnej struktury efektów losowych. Tak, to stosunkowo łatwy sposób dokonać równoważnej Bayesa modelu jest zamienić wywołanie
glmer
zstan_glmer
odrstanarm
pakietu - to ma być Plug and Play. Ma domyślne priorytety, więc możesz szybko dopasować model. Pakiet zawiera również wiele narzędzi do oceny konwergencji. Jeśli okaże się, że wszystkie parametry są zbieżne z prawdopodobnymi wartościami, wszyscy jesteście dobrzy. Może jednak występować wiele problemów - na przykład wariancja szacowana na zero lub poniżej zera, lub szacunek, który nadal się zmienia. Witryna mc-stan.org ma wiele informacji i forum użytkowników.źródło
To bardzo interesujący wątek z ciekawymi odpowiedziami i komentarzami! Ponieważ nie zostało to jeszcze poruszone, chciałem zauważyć, że mamy bardzo mało danych dla każdego przedmiotu (jak rozumiem). Rzeczywiście, każdy podmiot ma tylko dwie wartości dla każdej zmiennej odpowiedzi Y, zmiennej kategorialnej Warunek i zmiennej ciągłej X. W szczególności wiemy, że dwie wartości Warunku to A i B.
Gdybyśmy mieli stosować dwustopniowe modelowanie regresji zamiast modelowania efektów mieszanych, nie moglibyśmy nawet dopasować modelu regresji liniowej do danych konkretnego pacjenta, jak pokazano w poniższym przykładzie zabawki dla jednego z przedmiotów:
Dane wyjściowe tego modelu tematycznego byłyby następujące:
Zauważ, że dopasowanie modelu cierpi na osobliwości, ponieważ staramy się oszacować 4 współczynniki regresji plus odchylenie standardowe błędu przy użyciu tylko 2 obserwacji.
Osobliwości utrzymałyby się, nawet gdybyśmy obserwowali ten temat dwa razy - a nie raz - pod każdym warunkiem. Gdybyśmy jednak obserwowali obiekt 3 razy pod każdym warunkiem, pozbylibyśmy się osobliwości:
Oto odpowiednie wyjście R dla tego drugiego przykładu, z którego zniknęły osobliwości:
Oczywiście model efektów mieszanych nie pasuje do niepowiązanych, osobnych modeli regresji liniowej dla każdego pacjenta - pasuje do modeli „pokrewnych”, których przechwyty i / lub nachylenia różnią się losowo wokół typowego przechwytu i / lub nachylenia, tak że losowe odchylenia od typowy punkt przecięcia i / lub typowe nachylenie mają rozkład normalny ze średnim zerem i pewnym nieznanym odchyleniem standardowym.
Mimo to moja intuicja sugeruje, że model efektów mieszanych zmaga się z niewielką liczbą obserwacji - zaledwie 2 - dostępnych dla każdego przedmiotu. Im bardziej model jest obciążony losowymi nachyleniami, tym bardziej prawdopodobnie ma problemy. Podejrzewam, że gdyby każdy badany wniósł 6 obserwacji zamiast 2 (to znaczy 3 na warunek), nie miałby już trudności z przyjęciem wszystkich losowych stoków.
Wydaje mi się, że może to być (?) Przypadek, w którym obecny projekt badania nie wspiera złożonych ambicji modelowania - aby wesprzeć te ambicje, potrzebne byłyby dalsze obserwacje pod każdym warunkiem dla każdego przedmiotu (lub przynajmniej dla niektórych tematy?). To tylko moja intuicja, więc mam nadzieję, że inni mogą dodać swoje spostrzeżenia do moich powyższych obserwacji. Z góry dziękuję!
źródło