Czytam artykuł teoretyczny Douga Batesa o pakiecie R4, aby lepiej zrozumieć drobiazgowość mieszanych modeli, i natknąłem się na intrygujący wynik, który chciałbym lepiej zrozumieć, o zastosowaniu ograniczonego maksymalnego prawdopodobieństwa (REML) do oszacowania wariancji .
W części 3.3 dotyczącej kryterium REML stwierdza, że zastosowanie REML do oszacowania wariancji jest ściśle związane z zastosowaniem korekcji stopni swobody przy szacowaniu wariancji od odchyleń resztkowych w dopasowanym modelu liniowym. W szczególności, „chociaż zwykle nie jest uzyskiwany w ten sposób”, stopnie korekcji swobody można uzyskać przez oszacowanie wariancji poprzez optymalizację „kryterium REML” (równanie (28)). Kryterium REML jest w zasadzie tylko prawdopodobieństwem, ale parametry dopasowania liniowego zostały wyeliminowane przez marginalizację (zamiast ustawiania ich jako równe oszacowaniu dopasowania, co dałoby stronniczą wariancję próbki).
Zrobiłem matematykę i zweryfikowałem deklarowany wynik dla prostego modelu liniowego z tylko ustalonymi efektami. Walczę z interpretacją. Czy jest jakaś perspektywa, z której naturalne jest oszacowanie wariancji poprzez optymalizację prawdopodobieństwa marginalizacji parametrów dopasowania? To trochę bayesowskie, jakbym myślał o prawdopodobieństwie późniejszym i marginalizował parametry dopasowania, jakby to były zmienne losowe.
Czy uzasadnienie jest przede wszystkim tylko matematyczne - działa w przypadku liniowym, ale jest również uogólnialne?