Rozważ eksperyment z wieloma ludzkimi uczestnikami, z których każdy jest mierzony wiele razy w dwóch warunkach. Model efektów mieszanych można sformułować (używając składni lme4 ) jako:
fit = lmer(
formula = measure ~ (1|participant) + condition
)
Powiedzmy, że chcę wygenerować przedziały ufności ładowania początkowego dla prognoz tego modelu. Myślę, że wymyśliłem prostą i wydajną obliczeniowo metodę i jestem pewien, że nie jestem pierwszym, który to wymyślił, ale mam trudności ze znalezieniem jakichkolwiek wcześniejszych publikacji opisujących to podejście. Oto on:
- Dopasuj model (jak wyżej), nazwij to „oryginalnym modelem”
- Uzyskaj prognozy z oryginalnego modelu, nazwij je „oryginalnymi prognozami”
- Uzyskaj resztki z oryginalnego modelu związanego z każdą odpowiedzią od każdego uczestnika
- Ponownie próbkuj resztki, pobierając próbki uczestników z wymianą
- Dopasuj liniowy model efektów mieszanych z błędem gaussa do reszt , nazwij to „modelem przejściowym”
- Oblicz prognozy z modelu przejściowego dla każdego warunku (te prognozy będą bardzo bliskie zeru), nazwij je „prognozami przejściowymi”
- Dodaj prognozy tymczasowe do pierwotnych prognoz, nazwij wynik „prognozami ponownego próbkowania”
- Powtórz kroki od 4 do 7 wiele razy, generując rozkład prognoz ponownego próbkowania dla każdego warunku, z którego można raz obliczyć CI.
Widziałem procedury „resztkowego ładowania początkowego” w kontekście prostej regresji (tj. Nie modelu mieszanego), w której próbki są próbkowane jako jednostka ponownego próbkowania, a następnie dodawane do prognoz oryginalnego modelu przed dopasowaniem nowego modelu przy każdej iteracji bootstrap, ale wygląda to raczej inaczej niż podejście, które opisuję, w którym pozostałości nie są nigdy ponownie próbkowane, ludzie są i tylko pomodel przejściowy jest uzyskiwany, gdy w grę wchodzą prognozy modelu pierwotnego. Ta ostatnia cecha ma naprawdę fajną zaletę uboczną, ponieważ bez względu na złożoność oryginalnego modelu, model przejściowy może zawsze pasować jako gaussowski liniowy model mieszany, który w niektórych przypadkach może być znacznie szybszy. Na przykład ostatnio miałem dane dwumianowe i 3 zmienne predykcyjne, z których jedną, jak podejrzewałem, wywołałoby silnie nieliniowe efekty, więc musiałem zastosować uogólnione mieszane modelowanie addytywne za pomocą funkcji dwumianowego połączenia. Montaż oryginalnego modelu w tym przypadku trwał ponad godzinę, a montaż gaussowskiego LMM przy każdej iteracji zajął zaledwie kilka sekund.
Naprawdę nie chcę ubiegać się o pierwszeństwo w tej sprawie, jeśli jest to już znana procedura, więc byłbym bardzo wdzięczny, gdyby ktokolwiek mógł podać informacje na temat tego, jak to mogło być wcześniej opisane. (Ponadto, jeśli są jakieś rażące problemy z tym podejściem, daj mi znać!)
źródło
Odpowiedzi:
Moja książka Bootstrap Methods 2nd Edition ma obszerną bibliografię do 2007 roku. Więc nawet jeśli nie omówię tematu w książce, odniesienie może znajdować się w bibliografii. Oczywiście wyszukiwanie w Google z odpowiednimi słowami kluczowymi może być lepsze. Freedman, Peters i Navidi przeprowadzili ładowanie wstępne w celu przewidywania w regresji liniowej i modelach ekonometrycznych, ale nie jestem pewien, co zrobiono w przypadku modelu mieszanego. Gazeta Stine z 1985 r. Częstotliwość przewidywania Bootstrap dla regresji jest bardzo interesująca, jeśli jeszcze jej nie widziałeś.
źródło