Dlaczego powtarzane pomiary ANOVA zakładają sferyczność?
Przez sferyczność rozumiem założenie, że wariancja wszystkich różnic par między grupami powinna być taka sama.
W szczególności nie rozumiem, dlaczego powinno to być założenie, a nie, że wariancje samych obserwowanych wyników grupowych są takie same.
anova
repeated-measures
assumptions
sphericity
user1205901 - Przywróć Monikę
źródło
źródło
Odpowiedzi:
Intuicja za założeniem sferyczności
Jednym z założeń wspólnych, nie powtarzanych pomiarów, ANOVA jest jednakowa wariancja we wszystkich grupach.
(Możemy to zrozumieć, ponieważ równa wariancja, znana również jako homoscedastyczność , jest potrzebna, aby estymator OLS w regresji liniowej był NIEBIESKI, a odpowiednie testy t były ważne, patrz twierdzenie Gaussa-Markowa . I ANOVA można zaimplementować jako liniową regresja.)
Spróbujmy więc zredukować przypadek RM-ANOVA do przypadku nie-RM. Dla uproszczenia będę miał do czynienia z jednoczynnikowym RM-ANOVA (bez efektów między podmiotami ), który ma pacjentów zarejestrowanych w warunkach k RM.n k
Każdy obiekt może mieć własne przesunięcie specyficzne dla obiektu lub przechwycenie. Jeśli odejmiemy wartości w jednej grupie od wartości we wszystkich innych grupach, anulujemy te przechwyty i dojdziemy do sytuacji, w której będziemy mogli użyć metody innej niż RM-ANOVA do przetestowania, czy wszystkie różnice grup są zerowe. Aby test był ważny, potrzebujemy założenia równych wariancji tych różnic k - 1 .k−1 k - 1
Teraz możemy odjąć grupę nr 2 od wszystkich innych grup, ponownie dochodząc do różnic które również powinny mieć równe wariancje. Dla każdej grupy z k wariancje odpowiadających różnic k - 1 powinny być równe. Szybko wynika, że wszystkie możliwe różnice k ( k - 1 ) / 2 powinny być równe.k - 1 k k - 1 k ( k - 1 ) / 2
To jest właśnie założenie sferyczności.
Dlaczego wariancje grupowe nie powinny być sobie równe?
Kiedy że RM-ANOVA, to zazwyczaj, że prosty dodatków modelu mieszanego modelu stylu postać w którym α i są efekty zastrzeżeniem, β J jest efekty warunkowe i ϵ ∼ N ( 0 , σ 2 ) .
W tym modelu różnice grupowe będą następować po , tj. Wszystkie będą miały tę samą wariancję 2 σ 2 , więc zachodzi sferyczność. Ale każda grupa będzie podążać za mieszaniną n Gaussianów ze średnimi w αi i wariancjami σ 2 , co jest pewnym skomplikowanym rozkładem z wariancją V ( → α , σ 2 ), która jest stała między grupami.N.( βjot1- βjot2), 2 σ2)) 2 σ2) n αja σ2) V.( α⃗ , σ2))
Zatem w tym modelu odchylenia grupowe są również takie same. Grupy kowariancji są również takie same, co oznacza, że model ten zakłada złożoną symetrię . Jest to bardziej rygorystyczny warunek w porównaniu do sferyczności. Jak pokazuje mój powyższy intuicyjny argument, RM-ANOVA może działać dobrze w bardziej ogólnej sytuacji, gdy napisany powyżej model addytywny nie ma zastosowania .
Dokładne stwierdzenie matematyczne
Mam zamiar dodać tu coś z Huynh & FELDT, 1970, warunki, w jakich Mean kwadratowe Wskaźniki w powtarzanych pomiarów wzory dokładnych -Distributionsfa .
Co się stanie, gdy pęknie sferyczność?
Gdy sferyczność się nie utrzymuje, możemy prawdopodobnie oczekiwać, że RM-ANOVA (i) ma nadmuchany rozmiar (więcej błędów typu I), (ii) ma zmniejszoną moc (więcej błędów typu II). Można to zbadać za pomocą symulacji, ale nie zamierzam tego tutaj robić.
źródło
Okazuje się, że efektem naruszenia kulistości jest utrata mocy (tj. Zwiększone prawdopodobieństwo błędu typu II) i statystyka testowa (współczynnik F), której po prostu nie można porównać do tabelarycznych wartości rozkładu F. Test F staje się zbyt liberalny (tzn. Odsetek odrzuceń hipotezy zerowej jest większy niż poziom alfa, gdy hipoteza zerowa jest prawdziwa.
Dokładne badanie tego tematu jest bardzo zaangażowane, ale na szczęście Box i wsp. Napisali o tym artykuł: https://projecteuclid.org/download/pdf_1/euclid.aoms/1177728786
Krótko mówiąc, sytuacja wygląda następująco. Po pierwsze, powiedzmy, że mamy projekt z powtarzanymi pomiarami z jednym czynnikiem dla badanych S i eksperymentalnych zabiegów A W tym przypadku efekt zmiennej niezależnej jest badany przez obliczenie statystyki F, która jest obliczana jako stosunek średniej kwadratowej efektu do średniej kwadratowej interakcji między czynnikiem przedmiotowym a zmienną niezależną. Gdy utrzymuje się sferyczność, statystyki te mają rozkład Fishera z i υ 2 = ( A - 1 ) ( S - 1 ) stopnie swobody.υ1= A - 1 υ2)= ( A - 1 ) ( S- 1 )
W powyższym artykule Box ujawnił, że gdy sferyczność zawodzi, prawidłowa liczba stopni swobody staje się stosunku F zależy od sferyczności ϵ tak: υ 1 = ϵ ( A - 1 ) υ 2 = ϵ ( A - 1 ) ( S - 1 )υ1 ϵ
Również Box wprowadził wskaźnik sferyczności, który stosuje się do macierzy kowariancji populacji . Jeśli nazywamy wpisy z tej tabeli AXA, to indeksξa , a
Indeks sferyczności Boxa najlepiej rozumieć w odniesieniu do wartości własnych macierzy kowariancji. Przypomnijmy, że macierze kowariancji należą do klasy pozytywnych półokreślonych macierzy i dlatego zawsze mają dodatnie wartości zerowe. Zatem warunek sferyczności jest równoważny z tym, że wszystkie wartości własne są równe stałej.
Tak więc, gdy sferyczność zostanie naruszona, powinniśmy zastosować pewną korektę dla naszych statystyk F, a najbardziej znaczącymi przykładami tych poprawek są na przykład Greenhouse-Geisser i Huynh-Feldt
Bez poprawek wyniki będą stronnicze i tak niewiarygodne. Mam nadzieję że to pomoże!
źródło
Średnia próbki dla i-tej grupy to
a przedmiotem tego pierwszego przedmiotu jest
Zakładając niezależność między podmiotami, wariancja różnicy między dwoma średnimi grupowymi wynosi
Rozsądne jest oczekiwanie, że powtarzane pomiary u pacjenta są skorelowane. Więc,V.a r ( y¯I j .) nie jest tak proste jak σ2)/ K z σ2) będące wariancją każdej obserwacji. Niezależnie od tego, czyV.a r ( y¯I j .) zakłada się, że jest stały dla wszystkich badanych, można w sposób prawidłowy wykonać „prosty” 2-próbny test t w celu porównania 2 średnich grupowych. Zatem jedną z motywacji do zakładania stałych wariancji jest wykonanie ważnego i prostego testu t.
Teraz do podniesionego pytania o sferyczność.
Interesujące może być porównanie średnich próbek między dowolnymi dwoma punktami czasowymiy¯. . k- y¯. . k′ , gdzie
Dlatego przy założeniu stałej wariancji wszystkich różnic parowych ważne jest wykonanie testu t po oszacowaniu wspólnej wariancji. To założenie wraz ze stałą wariancją każdej obserwacji implikuje, że kowariancja między dowolną parą pomiarów jest stała we wszystkich parach - Sergioma świetny post na ten temat. W związku z tym założenia tworzą strukturę wariancji-kowariancji dla powtarzanych pomiarów każdego pacjenta jako macierzy o stałej po przekątnej i innej stałej po przekątnej. Kiedy wszystkie poziome przekroje są zerowe, zmniejsza się do modelu całkowicie niezależnego (co może być nieodpowiednie dla wielu powtarzanych badań pomiarowych). Gdy poziome przekątne są takie same jak przekątna, powtarzane pomiary są doskonale skorelowane dla obiektu, co oznacza, że każdy pojedynczy pomiar jest tak dobry, jak wszystkie pomiary dla każdego obiektu. Uwaga końcowa - gdy K = 2 w naszym prostym projekcie podziału wykresu, warunek sferyczności jest automatycznie spełniony.
źródło