Jedną z głównych korzyści modeli mieszanych jest to, że nie zakładają one niezależności między obserwacjami, a obserwacje mogą być skorelowane w obrębie jednostki lub skupienia.
Jest to zwięźle omówione w „Modern Applied Statistics with S” (MASS) w pierwszej części rozdziału 10 na temat „efektów losowych i mieszanych”. V&R przedstawia przykład z danymi benzyny porównującymi ANOVA i lme w tej sekcji, więc jest to dobry przegląd. Funkcja R do stosowania w lme
w nlme
opakowaniu.
Sformułowanie modelu oparte jest na Laird i Ware (1982), więc możesz nazywać to głównym źródłem, choć na pewno nie jest dobre na wprowadzenie.
- Laird, NM i Ware, JH (1982) „Modele efektów losowych dla danych podłużnych”, Biometrics, 38, 963–974.
- Venables, WN i Ripley, BD (2002) „ Modern Applied Statistics with S ”, wydanie 4, Springer-Verlag.
Możesz także zajrzeć do dodatku „Liniowe modele mieszane” (PDF) do „An R and S-PLUS Companion for Applied Regression” Johna Foxa. I ten wykład Rogera Levy'ego (PDF) omawia modele efektów mieszanych z rozkładem normalnym wielu zmiennych.
Bardzo dobrym artykułem wyjaśniającym ogólne podejście LMM i ich przewagę nad ANOVA jest:
Liniowe modele mieszanych efektów (LMM) uogólniają modele regresji, aby miały składowe podobne do resztkowych, losowe efekty na poziomie np. Ludzi lub przedmiotów, a nie tylko na poziomie indywidualnych obserwacji. Modele są bardzo elastyczne, na przykład umożliwiają modelowanie różnych nachyleń i przechwytów.
LMM działają przy użyciu pewnego rodzaju funkcji wiarygodności, prawdopodobieństwa danych przy określonym parametrze oraz metody maksymalizacji tego (Maksymalne oszacowanie wiarygodności; MLE) poprzez manipulowanie parametrami. MLE jest bardzo ogólną techniką pozwalającą na dopasowanie wielu różnych modeli, np. Danych binarnych i danych zliczeniowych, i jest wyjaśniona w wielu miejscach, np.
LMM nie mogą jednak radzić sobie z danymi innymi niż gaussowskie, takimi jak dane binarne lub liczby; do tego potrzebujesz uogólnionych liniowych modeli mieszanych efektów (GLMM). Jednym ze sposobów na ich zrozumienie jest zbadanie GLM; patrz także Agresti (2007).
źródło
Główną zaletą LME do analizy danych dokładności jest możliwość uwzględnienia szeregu efektów losowych. W eksperymentach psychologicznych badacze zwykle agregują przedmioty i / lub uczestników. Ludzie nie tylko różnią się od siebie, ale także przedmioty (niektóre słowa mogą być na przykład bardziej charakterystyczne lub zapadające w pamięć). Ignorowanie tych źródeł zmienności zwykle prowadzi do niedoszacowania dokładności (na przykład niższych wartości d '). Chociaż kwestią agregacji uczestnika można w jakiś sposób poradzić sobie z indywidualnym oszacowaniem, efekty pozycji nadal istnieją i są zwykle większe niż efekty uczestnika. LME pozwala nie tylko jednocześnie radzić sobie z obydwoma efektami losowymi, ale także dodawać do nich dodatkowe zmienne predykcyjne (wiek, poziom wykształcenia, długość słowa itp.).
Naprawdę dobrym odniesieniem dla LME, szczególnie skoncentrowanych na lingwistyce i psychologii eksperymentalnej, jest Analiza danych lingwistycznych: praktyczne wprowadzenie do statystyki za pomocą R
Twoje zdrowie
źródło