Nie jestem pewien co do komentarza do metody prognozowania, ale główny problem dotyczy generowania łatwo interpretowalnych miar wariancji, a nie miar wariancji per se. Bates nie komentuje w pierwszym cytacie, czy możesz to zrobić, tylko co to oznacza.
Weź prosty wielopoziomowy model dwupoziomowego projektu z powtarzanymi pomiarami. Załóżmy, że masz następujące dane, w których każdy wiersz jest tematem:
W lmer
modelu można wyrazić jako:
y ~ x + (1|subject)
Przewidujesz wartość y na podstawie x jako stały efekt (różnica między A i B); i przechwytuje efekt losowy **. Przyjrzyj się uważnie wykresowi i zauważ, że chociaż istnieje zmienność efektu x dla każdego obiektu (nachylenie każdej linii), jest ona stosunkowo niewielka w porównaniu do zmienności między podmiotami (wysokość każdej linii).
Model analizuje te dwa zestawy zmienności i każdy z nich ma znaczenie. Możesz użyć efektów losowych, aby przewidzieć wysokości linii, a możesz użyć stałych efektów x, aby przewidzieć nachylenia. Możesz nawet użyć tych dwóch razem do pracy z naszymi indywidualnymi wartościami y. Ale to, czego nie możesz zrobić, to naprawdę powiedzieć coś znaczącego w odniesieniu do twojego modelu , łącząc ze sobą zmienność nachyleń i wysokości linii. Musisz osobno mówić o zmienności nachyleń i wysokości linii. To cecha modelu, a nie zobowiązanie.
Będziesz miał zmienność działania x, która jest stosunkowo łatwa do oszacowania. Można powiedzieć coś na temat przedziału ufności wokół tego. Zauważ jednak, że ten przedział ufności będzie miał niewielki związek z przewidywaniem jakiejkolwiek konkretnej wartości y, ponieważ na wartość y wpływa kombinacja efektu i wariancji podmiotu, która różni się od zmienności samego efektu.
Kiedy Bates pisze rzeczy, które zacytowałeś, wyobrażam sobie, że często myśli o znacznie bardziej złożonych projektach wielopoziomowych, do których nawet nie podchodzi. Ale nawet jeśli weźmiesz pod uwagę ten prosty przykład, sprowadza się do zastanowienia, jaki rodzaj prawdziwego znaczenia można wyciągnąć z połączenia wszystkich miar wariancji.
** Dla uproszczenia zignorowałem stały efekt przechwytywania i po prostu traktuję go jako efekt losowy. Można wyciągnąć podobne wnioski z jeszcze prostszego modelu tylko z przypadkowym i stałym przechwytywaniem, ale myślę, że trudniej byłoby to przekazać. W takim przypadku ponownie ustalony efekt i efekt losowy są analizowane z jakiegoś powodu i oznaczają różne rzeczy, a połączenie ich zmienności z powrotem dla przewidywanych wartości powoduje, że zmienność ta nie ma sensu w odniesieniu do modelu.
Przez długi czas zastanawiałem się nad pozornie powszechnym przekonaniem, że istnieje pewna fundamentalna różnica w ustalonych i losowych efektach (ogólnie nieliniowych) modeli efektów mieszanych. Przekonanie to zostało na przykład wyrażone przez Batesa w następującej odpowiedzi
https://stat.ethz.ch/pipermail/r-sig-mixed-models/2010q1/003447.html
Bates wyraźnie stwierdza, że uważa, że istnieje zasadnicza różnica między efektami stałymi i losowymi, więc nie można ich łączyć. Myślę, że się myli i mam nadzieję przekonać kilku czytelników o alternatywnym punkcie widzenia. Stosuję podejście częstokroć, więc chcę zdefiniować pojęcie prawdopodobieństwa profilu dla funkcji zarówno efektów stałych, jak i losowych. Aby motywować dyskusję, załóżmy, że mamy dwuparametrowy model z parametrami xi (jak dotąd brak efektów losowych). Niech będzie funkcją prawdopodobieństwa, w której pomijamy wszelkie odniesienia do danych. Niech P g ( tL(x,u) g(x,u) Pg(t) g
źródło