Na konferencji usłyszałem następujące oświadczenie:
100 pomiarów dla 5 osób dostarcza znacznie mniej informacji niż 5 pomiarów dla 100 osób.
To trochę oczywiste, że to prawda, ale zastanawiałem się, jak można to udowodnić matematycznie ... Myślę, że można zastosować liniowy model mieszany. Jednak niewiele wiem o matematyce użytej do ich oszacowania (po prostu biegam lmer4
po LMM i bmrs
GLMM :) Czy możesz mi pokazać przykład, w którym to jest prawda? Wolałbym odpowiedź z pewnymi formułami, a nie z pewnym kodem w R. Zapraszam do przyjęcia prostego ustawienia, takiego jak na przykład liniowy model mieszany z normalnie rozmieszczonymi losowymi punktami przecięcia i nachyleniami.
PS, odpowiedź matematyczna, która nie obejmuje LMM, również byłaby w porządku. Myślałem o LMM, ponieważ wydawały mi się naturalnym narzędziem wyjaśniającym, dlaczego mniej miar z większej liczby przedmiotów jest lepszych niż więcej miar z kilku przedmiotów, ale mogę się mylić.
Odpowiedzi:
Krótka odpowiedź brzmi: twoja hipoteza jest prawdziwa wtedy i tylko wtedy, gdy istnieje pozytywna korelacja wewnątrz klasy w danych . Empirycznie, większość zestawów danych w klastrach przez większość czasu wykazuje dodatnią korelację wewnątrz klasy, co oznacza, że w praktyce twoje przypuszczenia są zwykle prawdziwe. Ale jeśli korelacja wewnątrz klasy wynosi 0, to dwa wspomniane przypadki są równie pouczające. A jeśli korelacja wewnątrz klasy jest ujemna , to w rzeczywistości mniej pouczające jest dokonywanie mniejszej liczby pomiarów na większej liczbie tematów; wolelibyśmy (jeśli chodzi o zmniejszenie wariancji oszacowania parametru) wykonać wszystkie nasze pomiary na jednym obiekcie.
Statystycznie są dwie perspektywy, z której możemy myśleć o tym: a random-effects (lub mieszany ) modelu , który wspomina w swoim pytaniu, czy marginalny modelu , który kończy się nieco bardziej pouczające tutaj.
Model efektów losowych (mieszanych)
Powiedzmy, że mamy zestaw obiektów, od których każdy wykonaliśmy m pomiarów. Wtedy prostym modelem efektów losowych j- tego pomiaru od i- tego obiektu może być y i j = β + u i + e i j , gdzie β jest stałym punktem przecięcia, u i jest losowym efektem podmiotu (z wariancją σ 2 u ), e i j jest składnikiem błędu poziomu obserwacji (z wariancją σ 2 en m jot ja
W tym modelu reprezentuje średnią populacji, a przy zbilansowanym zbiorze danych (tj. Takiej samej liczbie pomiarów od każdego pacjenta) naszym najlepszym oszacowaniem jest po prostu średnia próbki. Więc jeśli weźmiemy „więcej informacji” za mniejszą wariancję dla tego oszacowania, to zasadniczo chcemy wiedzieć, w jaki sposób wariancja średniej próbki zależy od n i m . Przy odrobinie algebry możemy wypracować tę zmienną ( 1β n m
Analizując to wyrażenie, możemy zauważyć, żeilekroć istnieje dowolność wariancji podmiotu(tj.Σ2u>0), zwiększenie liczby podmiotów (n) spowoduje zmniejszenie obu tych terminów, przy jednoczesnym zwiększeniu liczby pomiarów na podmiot (m) zmniejszy jedynie drugi termin. (Aby poznać praktyczną implikację tego przy projektowaniu projektów replikacji dla wielu witryn, zobaczten post na blogu, który napisałem jakiś czas temu).
Teraz chciałeś wiedzieć, co się dzieje, gdy zwiększamy lub zmniejszamy lub n , utrzymując stałą całkowitą liczbę obserwacji. Więc za to uważamy n m być stała, tak że całe wyrażenie wariancji właśnie wygląda σ 2 um n n m
która jest tak mała, jak to możliwe, gdynjest tak duże, jak to możliwe (maksymalnie don=nm, w którym to przypadkum=1, co oznacza, że bierzemy pojedynczy pomiar od każdego obiektu).
Model brzeżny
źródło