Czytałem, że kontrolowanie FDR jest mniej rygorystyczne niż kontrolowanie FWER, na przykład w Wikipedii :
Procedury kontrolujące FDR mają mniej rygorystyczną kontrolę nad fałszywym wykrywaniem w porównaniu z procedurami rodzinnego wskaźnika błędów (FWER) (takimi jak korekta Bonferroniego). Zwiększa to moc kosztem zwiększenia częstości błędów typu I, tj. Odrzucenia hipotezy zerowej o braku efektu, kiedy należy ją zaakceptować.
Ale zastanawiałem się, w jaki sposób jest to matematycznie prawdziwe?
Czy istnieje jakiś związek między FDR a FWER?
hypothesis-testing
multiple-comparisons
false-discovery-rate
StackExchange dla wszystkich
źródło
źródło
Odpowiedzi:
Rzeczywiście, @cardinal ma rację, że papier jest tak czysty, jak to tylko możliwe. Tak więc, na ile warto, na wypadek, gdybyś nie miał dostępu do gazety, oto nieco rozbudowana wersja argumentacji Benjamini – Hochberg:
FDR jest oczekiwaną wartością odsetka fałszywych odrzuceń v do wszystkich odrzuceń r . Teraz r jest oczywiście sumą fałszywych i poprawnych odrzuceń; Ten drugi sposób nazywamy s .Qe v r r s
Podsumowując, (używając wielkich liter dla zmiennych losowych i małych liter dla zrealizowanych wartości),
Przyjmuje się jeśli R = 0 .Q=0 R=0
Teraz są dwie możliwości: albo wszystkie null są prawdziwe, albo tylko m 0 < m z nich jest prawdziwe. W pierwszym przypadku nie może być poprawnych odrzuceń, więc r = v . Zatem jeśli istnieją jakiekolwiek odrzucenia ( r ≥ 1 ), q = 1 , w przeciwnym razie q = 0 . W związku z tym,m m0<m r=v r≥1 q=1 q=0
Tak więc, w tym przypadku tak, że procedura, która steruje C D R trywialny steruje również F W E R i odwrotnie.FDR=FWER FDR FWER
W drugim przypadku, w którym , jeśli v > 0 (czyli jeśli istnieje co najmniej jedno fałszywe odrzucenie), oczywiście mamy (jest to ułamek z v również w mianowniku), że v / r ≤ 1 . Oznacza to, że funkcja wskaźnik, który przyjmuje wartość 1, jeśli istnieje co najmniej jeden fałszywy odrzucenie, 1 V ≥ 1 nigdy nie będzie mniejszy niż Q , 1 V ≥ 1 ≥ Q . Przyjmijmy teraz oczekiwanie po obu stronach nierówności, która przez monotoniczność Em0<m v>0 v v/r≤1 1V≥1 Q 1V≥1≥Q E pozostawia nietkniętą nierówność,
Oczekiwana wartość funkcję wskaźnika jest prawdopodobieństwo, że w przypadku wskaźnika mamy , która z kolei jest F W E R .E(1V≥1)=P(V≥1) FWER
Zatem, gdy mamy procedurę, która kontroluje w tym sensie, że F W E R ≤ α , musimy mieć tę F D R ≤ α .FWER FWER≤α FDR≤α
Z drugiej strony, z kontrolę na niektórych alfa może być wyposażony w znacznie większej F W E R . Intuicyjnie, przyjmując niezerową oczekiwany część fałszywe odrzucenie ( K D R ) spośród potencjalnie dużą łączną hipotez badanych może oznaczać bardzo wysokie prawdopodobieństwo co najmniej jednego fałszywego odrzucenia ( F. W E R ).FDR α FWER FDR FWER
Tak więc procedura musi być mniej rygorystyczna, gdy pożądana jest tylko kontrola , co jest również dobre dla mocy. Jest to ten sam pomysł, co w każdym podstawowym teście hipotez: gdy testujesz na poziomie 5%, częściej odrzucasz (zarówno poprawne, jak i fałszywe wartości zerowe) niż podczas testowania na poziomie 1% po prostu dlatego, że masz mniejszą wartość krytyczną.FDR
źródło