W streszczeniu tego artykułu przeczytałem, że:
„Procedura maksymalnego prawdopodobieństwa (ML) Hartley aud Rao zostaje zmodyfikowana poprzez dostosowanie transformacji z Patterson i Thompson, która dzieli prawdopodobieństwo na normalność na dwie części, z których jedna jest wolna od ustalonych efektów. Maksymalizacja tej części daje tak zwane ograniczone maksymalne prawdopodobieństwo (REML) estymatory. ”
Przeczytałem również w streszczeniu tego artykułu, że REML:
„uwzględnia utratę stopni swobody wynikającą z oszacowania ustalonych efektów”.
Niestety nie mam dostępu do pełnego tekstu tych artykułów (i prawdopodobnie nie zrozumiałbym, gdybym to zrobił).
Jakie są zalety REML vs. ML? W jakich okolicznościach REML może być lepszy niż ML (lub odwrotnie) przy dopasowywaniu modelu efektów mieszanych? Podaj wyjaśnienie odpowiednie dla kogoś, kto ma wykształcenie matematyczne w szkole średniej (lub tuż po nim)!
źródło
Odpowiedzi:
Zgodnie z odpowiedzią ocram ML jest tendencyjny do szacowania składników wariancji. Ale zauważ, że odchylenie zmniejsza się w przypadku większych próbek. Stąd w odpowiedzi na pytania „ ... jakie są zalety REML vs ML? W jakich okolicznościach REML może być lepszy niż ML (lub odwrotnie) przy dopasowywaniu modelu efektów mieszanych? ”, Dla małych próbek preferowane jest REML. Jednak testy współczynnika wiarygodności dla REML wymagają dokładnie tej samej specyfikacji efektów stałych w obu modelach. Tak więc, aby porównać modele z różnymi stałymi efektami (wspólny scenariusz) z testem LR, należy użyć ML.
REML bierze pod uwagę liczbę parametrów (efektów ustalonych), tracąc 1 stopień swobody dla każdego. Osiąga się to poprzez zastosowanie ML do reszt najmniejszych kwadratów, które są niezależne od ustalonych efektów.
źródło
Oto szybka odpowiedź ...
Standardowy przykład ilustrujący
Oszacowanie REML jest często stosowane w bardziej skomplikowanym kontekście modeli mieszanych. Każda książka na temat modeli mieszanych zawiera sekcję wyjaśniającą oszacowanie REML bardziej szczegółowo.
Edytować
@Joe King: Oto jedna z moich ulubionych książek na temat modeli mieszanych, która jest w pełni dostępna online. Sekcja 2.4.2 dotyczy szacowania składników wariancji. Życzymy miłej lektury :-)
źródło
Metoda ML nie docenia parametrów wariancji, ponieważ zakłada, że ustalone parametry są znane bez niepewności przy szacowaniu parametrów wariancji.
Metoda REML wykorzystuje sztuczkę matematyczną do uniezależnienia oszacowań parametrów wariancji od oszacowań dla ustalonych efektów. REML działa najpierw poprzez uzyskanie resztek regresji dla obserwacji modelowanych przez część modelu z ustalonymi efektami, ignorując w tym momencie składniki wariancji.
Szacunki ML są obiektywne dla efektów stałych, ale tendencyjne dla efektów losowych, podczas gdy szacunki REML są tendencyjne dla efektów stałych i obiektywne dla efektów losowych.
źródło