Test Kolgomorova-Smirnova, test Shapiro itp.… Wszyscy odrzucają hipotezę, że rozkład jest normalny. Jednak kiedy wykreślam normalne kwantyle i histogram, dane są wyraźnie normalne. Może dlatego, że moc testów jest wysoka?
Wielkość próbki wynosi około 650. Czy więc przynajmniej jeden z tych testów nie powinien odrzucić hipotezy zerowej?
Wyniki:
Kolmogorov-Smirnov D 0.05031 Pr > D <0.010
Cramer-von Mises W-Sq 0.30003 Pr > W-Sq <0.005
Anderson-Darling A-Sq 1.66965 Pr > A-Sq <0.005
Chi-Square Chi-Sq 3250.43596 18 Pr > Chi-Sq <0.001
normal-distribution
Robbie
źródło
źródło
Odpowiedzi:
Testowanie normalności to strata czasu, a twój przykład ilustruje dlaczego. W przypadku małych próbek test normalności ma niską moc, dlatego decyzje o tym, które modele statystyczne należy zastosować, muszą być oparte na wiedzy z góry . W takich przypadkach brak odrzucenia wartości zerowej nie dowodzi, że wartość zerowa jest nawet w przybliżeniu prawdziwa na poziomie populacji.
Kiedy masz duże próbki, testy normalności stają się absurdalnie potężne, ale nie mówią ci niczego, czego jeszcze nie wiedziałeś. Żadna rzeczywista ilość nie jest dokładnie dystrybuowana. Rozkład normalny jest po prostu matematyczną abstrakcją, która w wielu przypadkach jest wystarczająco dobrym przybliżeniem. Najprostszym tego dowodem jest to, że nie ma rzeczywistej ilości (przynajmniej żadnej, o której mogę myśleć), która mogłaby przyjąć dowolną liczbę rzeczywistą jako jej wartość. Na przykład we wszechświecie jest tylko tyle cząsteczek. W podaży pieniądza jest tylko tyle dolarów. Prędkość światła jest skończona. Komputery mogą przechowywać tylko liczby o skończonym rozmiarze, więc nawet jeśli coś obsługuje wszystkie liczby rzeczywiste, nie będziesz w stanie tego zmierzyć.
Chodzi o to, że już wiedziałeś, że Twoje dane nie były dokładnie rozprowadzane normalnie, ale testy normalności nie mówią nic o tym, jak nienormalne są dane. Nie dają absolutnie żadnej wskazówki, czy dane są w przybliżeniu normalnie rozmieszczone, tak że metody wnioskowania statystycznego, które zakładają normalność, dałyby prawidłowe odpowiedzi. Jak na ironię, popularne testy (np. Test T i ANOVA), które zakładają normalność, są bardziej odporne na nienormalność przy dużych próbkach.
źródło
Nie dziwi mnie to - przy wystarczająco dużej próbce, każdy dobry test powinien odrzucić hipotezę zerową, chyba że rozkład generowania danych jest naprawdę (i dokładnie) normalny.
Przy testowaniu hipotez zwykle interesuje się znalezieniem „potężnego” testu, który jest testem, który może wykryć bardzo małe odchylenia od hipotezy zerowej przy możliwie najmniejszej ilości danych.
Spróbuj uruchomić test z podpróbką o rozmiarach 20, 50, 100, 200 i sprawdź, przy jakim rozmiarze testy zaczynają odrzucać. Łatwo jest sprawdzić, czy histogram jest symetryczny i ogólnie ma kształt dzwonu, ale ogony rozkładu są trudniejsze do oceny wzrokowej. Być może w danych występują wartości odstające, które powodują odrzucenie testów? Jeśli tak, zobacz, co się stanie, gdy je przycinasz.
źródło
Prawdopodobną przyczyną jest to, że twoje dane są bardzo nieznacznie nienormalne, a Twoja próbka jest wystarczająco duża, aby to ujawnić.
Jeśli rozkład naprawdę jest normalny, zwykle powinien przejść te testy, jak w poniższym przykładzie R, w którym wszystkie testy oprócz jednego są zaliczone.
Możesz chcieć zrobić qqplot, a jeśli jest on wystarczająco blisko linii prostej, możesz zdecydować, aby traktować go jako wystarczająco bliski normalności dla twoich celów. Zależy to raczej od tego, jakie są te cele.
źródło
Nie mogę się nie zgodzić z odpowiedzią dsimcha: „Testowanie normalności to strata czasu, a twój przykład ilustruje dlaczego”. Testowanie normalności nigdy nie jest stratą czasu, zawsze możesz uczyć się na podstawie danych. Ponadto istnieją pewne warunki, które należy przetestować przed wykonaniem analizy (np. ANOVA, regresja itp.). Względne duże próbki należy lepiej przetestować za pomocą wykresu (wykres QQ, histogram). W takich przypadkach wizualizacja daje znacznie więcej informacji na temat zachowania multimodalnego i tak dalej.
ANOVA i regresja są odporne na nienormalność w przypadku dużych próbek, ale głównym rodzajem danych, które powodują problemy, są próbki danych multimodalnych.
Przy małej wielkości próby test Kolgomorova-Smirnova jest najlepszą opcją głównie ze względu na jego czułość.
źródło
Nie zgadzam się nieco z innymi dotychczas opublikowanymi odpowiedziami: te testy normalności mają notorycznie mało mocy, nawet przy stosunkowo dużych próbkach, przynajmniej dla niektórych rodzajów odchyleń.
Oto szybki przykład. Wygenerowałem mieszaninę dwóch normalnych, których średnie są oddzielone przez cały sd.
Biorąc pod uwagę, że wykrywa on odchylenia od normalności w 5% przypadków, nawet jeśli byłoby to naprawdę normalne, nie jest to zbyt imponujące.
Oto inny przykład: dodaję jednolity hałas w zakresie wielkości dwóch odchyleń standardowych. Ten jest dość wyraźnie nienormalny.
Ponownie, wyjątkowo niska moc dla całkiem dużego odstępstwa od normalności.
Czy na pewno czytasz poprawnie qqplot? Czy możesz przesłać go, abyśmy mogli go zobaczyć?
Edycja z drugiej strony, regresja jest dość odporne na brak normalności, więc Zgodziłbym się, że oględziny może być wystarczające dla większości zastosowań.
źródło