Czy jesteśmy często odwiedzającymi domniemanymi / nieświadomymi Bayesianami?

15

W przypadku danego problemu wnioskowania wiemy, że podejście bayesowskie zwykle różni się zarówno pod względem formy, jak i wynika z podejścia fequentystycznego. Częstokroć (zwykle obejmuje mnie) często zwraca uwagę, że ich metody nie wymagają uprzedniego, a zatem są bardziej „oparte na danych” niż „oparte na ocenie”. Oczywiście Bayesian może wskazywać na nieinformacyjne priory lub, będąc pragmatyczny, po prostu użyć naprawdę rozproszonego wcześniejszego.

Obawiam się, szczególnie po odczuciu zadowolenia z mojej fequentystycznej obiektywności, że być może moje rzekomo „obiektywne” metody można sformułować w ramach Bayesa, choć z jakimś niezwykłym modelem wcześniejszym i danymi. W takim razie, czy jestem po prostu błogo nieświadomy niedorzecznego przeora i modelu, jaki sugeruje moja metoda częstokroć ?

Gdyby Bayesian zwrócił uwagę na takie sformułowanie, myślę, że moją pierwszą reakcją byłoby powiedzenie: „Dobrze, że możesz to zrobić, ale nie tak myślę o tym problemie!”. Jednak kogo obchodzi, jak o tym myślę lub jak ją formułuję. Jeśli moja procedura jest statystycznie / matematycznie równoważna z jakimś modelem bayesowskim, to domyślnie ( nieświadomie !) Przeprowadzam wnioskowanie bayesowskie.

Rzeczywiste pytanie poniżej

Uświadomienie to znacznie podważyło pokusę do zadowolenia z siebie. Jednak nie jestem pewien, czy to prawda, że paradygmat Bayesa może pomieścić wszystkie częstościowym procedur (ponownie, pod warunkiem, że Bayesa wybiera odpowiednią uprzednią i prawdopodobieństwo) . Wiem, że rozmowa jest fałszywa.

Zadaję to, ponieważ niedawno opublikowałem pytanie dotyczące wnioskowania warunkowego, które doprowadziło mnie do następującego artykułu: tutaj (patrz 3.9.5.3.9.6)

Wskazują dobrze znany wynik Basu, że może istnieć więcej niż jedna pomocnicza statystyka, nasuwając pytanie, który „odpowiedni podzbiór” jest najbardziej odpowiedni. Co gorsza, pokazują dwa przykłady tego, gdzie nawet jeśli masz unikalną pomocniczą statystykę, nie eliminuje to obecności innych odpowiednich podzbiorów.

Dalej dochodzą do wniosku, że tylko metody bayesowskie (lub metody im równoważne) mogą uniknąć tego problemu, umożliwiając bezproblemowe wnioskowanie warunkowe.


Nie może być tak, że Bayesa Statystyki Fequentist statystyka - to jest moje pytanie do tej grupy tutaj. Ale wydaje się, że fundamentalny wybór między tymi dwoma paradygmatami leży mniej w filozofii niż w celach: czy potrzebujesz wysokiej dokładności warunkowej czy niskiego bezwarunkowego błędu:

  • Wydaje się, że wysoka dokładność warunkowa ma zastosowanie, gdy musimy przeanalizować pojedynczą instancję - chcemy mieć rację w TYM konkretnym wnioskowaniu, pomimo faktu, że ta metoda może nie być odpowiednia lub dokładna dla następnego zestawu danych (hiper-warunkowość / specjalizacja).

  • Niski bezwarunkowy błąd jest odpowiedni, gdy jesteśmy skłonni w niektórych przypadkach wnioskować niepoprawne warunkowo, o ile nasz błąd długoterminowy jest zminimalizowany lub kontrolowany. Szczerze mówiąc, po tym, jak to napisałem, nie jestem pewien, dlaczego miałbym tego chcieć, chyba że jestem uwięziony w czasie i nie mogłem przeprowadzić analizy bayesowskiej ... hmmm.

Zwykle faworyzuję wnioskowanie fequentystyczne oparte na prawdopodobieństwie, ponieważ dostaję pewne (asymptotyczne / przybliżone) uwarunkowania z funkcji prawdopodobieństwa, ale nie muszę majstrować przy wcześniejszym - jednak coraz bardziej czuję się z wnioskowaniem bayesowskim, szczególnie jeśli Widzę poprzedni termin regularyzacji dla wnioskowania na małej próbce.

Przepraszam za bok. Doceniam wszelką pomoc dotyczącą mojego głównego problemu.


źródło
1
Wydaje się, że zmiana wpisu zawiodła link, ale nie mam wystarczających informacji, aby go naprawić.
Dikran Torbacz
@DikranMarsupial dzięki za zauważenie tego. Dodałem ponownie w linku.

Odpowiedzi:

3

Twierdziłbym, że częstokroć często są „domyślnymi / nieświadomymi Bayesianami”, ponieważ w praktyce często chcemy przeprowadzić probabilistyczne rozumowanie na temat rzeczy, które nie mają częstotliwości długoterminowej. Klasycznym przykładem jest test statystyczny zerowej hipotezy (NHST), w którym tak naprawdę chcemy wiedzieć, jakie są względne prawdopodobieństwa, że ​​hipotezy zerowe i badawcze są prawdziwe, ale nie możemy tego robić w warunkach częstych, ponieważ prawda konkretnej hipotezy nie ma (nietrywialna) częstotliwość długiego biegu - albo jest to prawda, albo nie. Częstotliwi NHST omijają ten problem, zastępując inne pytanie „jakie jest prawdopodobieństwo zaobserwowania wyniku co najmniej tak ekstremalnego w ramach hipotezy zerowej”, a następnie porównują to z wcześniej ustalonym progiem. Jednak ta procedura nie jest logiczna pozwalają nam dojść do wniosku o tym, czy H0 lub H1 jest prawdziwe, i robiąc to, faktycznie wychodzimy z ramy częstokształtnej w (zwykle subiektywny) schemat bayesowski, gdzie dochodzimy do wniosku, że prawdopodobieństwo zaobserwowania tak ekstremalnej wartości w H0 wynosi tak niskie, że nie możemy już dłużej wierzyć, że H0 prawdopodobnie jest prawdą (zauważ, że domyślnie przypisuje to prawdopodobieństwo konkretnej hipotezie).

αp(H.0)p(H.1)

wprowadź opis zdjęcia tutaj

α

Prawdopodobnie przedziały ufności są często używane (i interpretowane jako) przedział, w którym możemy spodziewać się obserwacji z danym prawdopodobieństwem, co znowu jest interpretacją bayesowską.

W idealnym przypadku statystycy powinni być świadomi zalet i wad obu podejść oraz być przygotowani do korzystania z odpowiednich ram dla danej aplikacji. Zasadniczo powinniśmy dążyć do skorzystania z analizy, która zapewnia najbardziej bezpośrednią odpowiedź na pytanie, na które tak naprawdę chcemy odpowiedzieć (a nie po cichu zastępować inne), więc podejście częstokierunkowe jest prawdopodobnie najbardziej wydajne tam, gdzie faktycznie interesują nas częstotliwości długoterminowe i Metody bayesowskie, gdy tak nie jest.

H.0

Dikran Torbacz
źródło
2
p<0,05
3
Myślę, że działa to jako krytyka statystyk „zerowego rytuału”, w których NHST są wykorzystywane jako przepis z statystycznej książki kucharskiej bez myślenia / rozumienia procedury (prawdopodobnie włączając mnie, kiedy zaczynałem; o).
Dikran Marsupial
2
Myślę, że dużym problemem związanym z NHST jest mniej zrytualizowany p <0,05, a bardziej, że sztucznie ogranicza on przestrzeń hipotez. Chodzi mi o to, że nie biorą pod uwagę (jako hipotez) wielu innych powodów, dla których byłoby ciemno inaczej niż „wybuchło słońce”. Tego naprawdę nie lubię w NHST ... jest tak konserwatywny w stosunku do zera. Zastanawiam się także, jaka byłaby moc tego testu?
1
H.0
@DikranMarsupial zgadzam się! Fisher wyobraził sobie, że pomagają w eksperymentach rolniczych, stąd pochodzi wartość p. Ocena pestycydów i nawozów to nic innego jak ocena niewytwarzalnych pytań egzystencjalnych ... niewłaściwe narzędzie do pracy.
4

Bayesianie i osoby często jeżdżące różnią się nie tylko sposobem, w jaki uzyskują wnioski, lub tym, jak podobne lub różne te wnioski mogą być niepewne w pewnych wcześniejszych wyborach. Główną różnicą jest sposób, w jaki interpretują prawdopodobieństwo:

Prawdopodobieństwo Bayesa :

Prawdopodobieństwo Bayesa to jedna interpretacja pojęcia prawdopodobieństwa. W przeciwieństwie do interpretowania prawdopodobieństwa jako częstotliwości lub skłonności jakiegoś zjawiska, prawdopodobieństwo bayesowskie jest wielkością przypisywaną do reprezentowania stanu wiedzy lub stanu przekonania.

Prawdopodobieństwo częstego korzystania :

Prawdopodobieństwo lub częstość bycia częstym to standardowa interpretacja prawdopodobieństwa; określa prawdopodobieństwo zdarzenia jako granicę jego względnej częstotliwości w dużej liczbie prób. Ta interpretacja wspiera potrzeby statystyczne eksperymentalnych naukowców i ankieterów; prawdopodobieństwa można znaleźć (co do zasady) poprzez powtarzalny obiektywny proces (a zatem idealnie pozbawione opinii). Nie obsługuje wszystkich potrzeb; hazardziści zazwyczaj wymagają oszacowania szans bez eksperymentów.

Te dwie definicje reprezentują dwa nie do pogodzenia podejścia do zdefiniowania pojęcia prawdopodobieństwa (przynajmniej do tej pory). Istnieją więc bardziej podstawowe różnice między tymi dwoma obszarami niż to, czy można uzyskać podobne estymatory lub takie same wnioski w niektórych modelach parametrycznych lub nieparametrycznych.

Pollo Anabolico
źródło
1
Nie sądzę, aby były one całkowicie nie do pogodzenia, częstotliwość długofalowa jest całkowicie uzasadnioną podstawą stanu wiedzy lub przekonań.
Dikran Torbacz
@DikranMarsupial W rzeczywistości jest to otwarty problem w filozofii nauki. Rozumiem twój punkt widzenia, ale pojednanie nie jest takie proste.
Pollo Anabolico
faundotjaonzally
z pewnością częsty byłby funkcjonalnie równoważny, gdyby istniał również analog częsty dla każdej procedury bayesowskiej, co nie może być prawdą, ponieważ Bayesianie mogą mówić o prawdopodobieństwach dla rzeczy bez częstotliwości długofalowych, ale częstokroć nie.
Dikran Torbacz
@DikranMarsupial tak, dlatego zapytałem, czy fequentist jest podzbiorem Bayesian (przyznałem, że konwersja jest znana jako fałszywa).