Czy ktoś może wyjaśnić, w jaki sposób procedury FDR są w stanie oszacować FDR bez modelu / założenia stopy bazowej prawdziwych wyników dodatnich?
źródło
Czy ktoś może wyjaśnić, w jaki sposób procedury FDR są w stanie oszacować FDR bez modelu / założenia stopy bazowej prawdziwych wyników dodatnich?
Myślę, że to naprawdę dobre pytanie; zbyt wiele osób stosuje procedurę Benjamini-Hochberg (w skrócie BH; prawdopodobnie najpopularniejsza procedura kontroli FDR) jako czarną skrzynkę. Rzeczywiście istnieje założenie, które opiera się na statystykach i jest dobrze ukryte w definicji wartości p!
Dla dobrze zdefiniowanej wartości utrzymuje, że jest równomiernie rozłożone ( ) pod hipotezą zerową. Czasami może się zdarzyć, że , tzn. Że jest stochastycznie mniejszy niż jednolity, ale to tylko czyni procedury bardziej konserwatywnymi (i dlatego nadal obowiązującymi). Tak więc, obliczając swoje wartości p, używając testu t lub dowolnego innego testu, podajesz informacje o rozkładzie pod hipotezą zerową.
Zauważ jednak, że mówiłem o hipotezie zerowej; więc to, co wspomniałeś o znajomości stawki podstawowej wyników prawdziwie dodatnich, nie jest potrzebne, potrzebujesz jedynie wiedzy na temat stawki podstawowej wyników fałszywie dodatnich! Dlaczego to?
Niech oznacza liczbę wszystkich odrzuconych (dodatnich) hipotez, a fałszywie dodatnie, a następnie:
Aby oszacować FDR, potrzebujesz sposobu oszacowania , . Przyjrzymy się teraz regułom decyzyjnym, które odrzucają wszystkie wartości p . Aby to wyjaśnić w notacji, napiszę również dla odpowiednich wielkości / zmiennych losowych takiej procedury.
Ponieważ to tylko oczekiwanie na całkowitą liczbę odrzuceń, możesz bezstronnie oszacować je na podstawie liczby zaobserwowanych odrzuceń, więc , tj. po prostu zliczając, ile z twoich wartości p jest .
A co z ? Załóżmy, że twoich hipotez całkowitych jest hipotezami , a następnie przez jednorodność (lub niejednolitość) wartości p poniżej wartości zerowej otrzymujesz:
Ale nadal nie wiemy , ale wiemy, że , więc konserwatywna górna granica to po prostu . Dlatego, ponieważ potrzebujemy tylko górnej granicy liczby fałszywych trafień, wystarczy, że znamy ich rozkład! I właśnie to robi procedura BH.
Tak więc, chociaż komentarz Aaronga Zenga, że „procedura BH jest sposobem na kontrolowanie FDR na danym poziomie q. Nie chodzi o oszacowanie FDR”, nie jest fałszywy, jest również bardzo mylący! Procedura BH faktycznie robi oszacowanie FDR dla każdej danej wartości progowej . A następnie wybiera największy próg, tak że szacowany FDR jest poniżej . Rzeczywiście „skorygowana wartość p” hipotezy jest zasadniczo tylko oszacowaniem FDR na progu (do izotonizacji). Myślę, że standardowy algorytm BH trochę ukrywa ten fakt, ale łatwo jest wykazać równoważność tych dwóch podejść (zwaną także „twierdzeniem równoważności” w literaturze z wielu testów).
Na koniec, istnieją metody takie jak procedura która szacuje nawet na podstawie danych; może to nieznacznie zwiększyć moc. Zasadniczo masz rację, można również modelować rozkład według alternatywnej (twojej prawdziwej dodatniej stopy bazowej), aby uzyskać mocniejsze procedury; ale jak dotąd badania wielokrotnych testów koncentrowały się głównie na utrzymaniu kontroli nad błędem typu I, a nie na maksymalizacji mocy. Jedną trudnością byłoby również to, że w wielu przypadkach każda z twoich prawdziwych alternatyw będzie miała inny rozkład alternatywny (np. Inną moc dla różnych hipotez), podczas gdy pod wartością zerową wszystkie wartości p mają ten sam rozkład. To sprawia, że modelowanie prawdziwej stopy dodatniej jest jeszcze trudniejsze.
Jak sugeruje @air, procedura Benjamini-Hochberg (BH) gwarantuje kontrolę FDR. Nie ma na celu oszacowania tego. Wymaga to zatem jedynie słabego założenia zależności między statystykami testowymi. [1,2]
Metody mające na celu oszacowanie FDR [np. 3,4,5] wymagają pewnych założeń dotyczących procesu generatywnego w celu jego oszacowania. Zazwyczaj zakładają, że statystyki testów są niezależne. Zakładają także coś o zerowym rozkładzie statystyk testowych. Odstępstwa od tego zerowego rozkładu wraz z założeniem niezależności można zatem przypisać efektom, a FDR można oszacować.
Zwróć uwagę, że pomysły te pojawiają się w częściowo nadzorowanej literaturze dotyczącej wykrywania nowości. [6].
[1] Benjamini, Y. i Y. Hochberg. „Kontrolowanie wskaźnika fałszywych odkryć: praktyczne i skuteczne podejście do wielokrotnego testowania”. DZIENNO-KRÓLEWSKIE STATYSTYCZNE SPOŁECZEŃSTWO SERII B 57 (1995): 289–289.
[2] Benjamini, Y. i D. Yekutieli. „Kontrola częstotliwości fałszywych odkryć w testach wielokrotnych w zależności od zależności”. ROCZNIKI STATYSTYKI 29, nr. 4 (2001): 1165–88.
[3] Storey, JD „Bezpośrednie podejście do wskaźnika fałszywych odkryć”. Journal Of The Royal Statistics Society Series B 64, no. 3 (2002): 479–98. doi: 10.1111 / 1467-9868.00346.
[4] Efron, B. „Mikromacierze, empiryczne Bayesa i model dwóch grup”. Nauki statystyczne 23, nr. 1 (2008): 1–22.
[5] Jin, Jiashun i T. Tony Cai. „Szacowanie wartości zerowej i proporcji efektów innych niż zerowe w wielu porównaniach na dużą skalę”. Journal of the American Statistics Association 102, nr. 478 (1 czerwca 2007 r.): 495–506. doi: 10.1198 / 016214507000000167.
[6] Claesen, Marc, Jesse Davis, Frank De Smet i Bart De Moor. „Ocena klasyfikatorów binarnych przy użyciu wyłącznie danych pozytywnych i nieznakowanych”. arXiv: 1504.06837 [cs, Stat], 26 kwietnia 2015 r . http://arxiv.org/abs/1504.06837 .
źródło
Gdy prawdziwy model bazowy jest nieznany, nie możemy obliczyć FDR, ale możemy oszacować wartość FDR za pomocą testu permutacji . Zasadniczo procedura testu permutacji polega na wielokrotnym testowaniu hipotezy poprzez zmianę wektora zmiennej wynikowej wraz z jego permutacjami. Można to również zrobić na podstawie permutacji próbek, ale nie tak powszechnej jak poprzednia.
W niniejszym artykule dokonano przeglądu standardowej procedury permutacji dla oszacowania FDR, a także zaproponowano nowy estymator FDR. Powinien być w stanie odpowiedzieć na twoje pytanie.
źródło