Czytałem ostatnio artykuł, który zawierał przypadkowość w jego pewności i wiarygodnych odstępach czasu i zastanawiałem się, czy jest to standard (a jeśli tak, to dlaczego warto to robić). Aby ustawić notację, załóżmy, że nasze dane to i jesteśmy zainteresowani tworzeniem przedziałów dla parametru . Jestem przyzwyczajony do budowania przedziałów ufności / wiarygodności poprzez budowanie funkcji:θ ∈ Θ
i niech nasz interwał będzie .
Jest to losowe w tym sensie, że zależy od danych, ale uwarunkowane danymi, to tylko interwał. Ten papier natomiast określa
a także zbiór iid jednolitych zmiennych losowych na . Określa skojarzony przedział jako . Zauważ, że zależy to w dużej mierze od losowości pomocniczej, ponad wszystko, co pochodzi z danych. [ 0 , 1 ] I = { θ ∈ Θ
Jestem bardzo ciekawy, dlaczego tak się dzieje. Myślę, że „rozluźnienie” pojęcia przedziału od funkcji takich jak do funkcji takich jak ma pewien sens; jest to jakiś ważony przedział ufności. Nie znam żadnych odniesień (i doceniłbym wszelkie wskazówki), ale wydaje się to całkiem naturalne. Nie mogę jednak wymyślić żadnego powodu, aby dodać losowość pomocniczą.
Będziemy wdzięczni za wszelkie wskazówki do literatury / powodów, aby to zrobić!
Odpowiedzi:
Randomizowane procedury są czasami stosowane w teorii, ponieważ upraszczają teorię. W typowych problemach statystycznych nie ma to w praktyce sensu, natomiast w ustawieniach teorii gier może mieć sens.
Jedynym powodem, dla którego widzę, że mogę go używać w praktyce, jest to, że w jakiś sposób upraszcza obliczenia.
Teoretycznie można argumentować, że nie należy go stosować z zasady wystarczalności : wnioski statystyczne powinny opierać się wyłącznie na wystarczających podsumowaniach danych, a randomizacja wprowadza zależność od zewnętrznego losowego który nie jest częścią wystarczającego podsumowania danych.U
Aby odpowiedzieć na poniższe uwagi Whubera, zacytowano tutaj: „Dlaczego procedury randomizowane„ nie mają sensu w praktyce ”? Jak zauważyli inni, eksperymentatorzy są całkowicie gotowi wykorzystać randomizację w konstrukcji swoich danych eksperymentalnych, takich jak losowe przypisanie leczenia i kontroli , więc co jest tak różnego (i niepraktycznego lub budzącego zastrzeżenia) w stosowaniu randomizacji w późniejszej analizie danych? ”
Cóż, randomizacja eksperymentu w celu uzyskania danych odbywa się w określonym celu, głównie w celu przerwania łańcuchów przyczynowości. Czy i kiedy jest to skuteczne, jest kolejna dyskusja. Jaki może być cel wykorzystania randomizacji jako części analizy? Jedynym powodem, jaki kiedykolwiek widziałem, jest to, że uzupełnia teorię matematyczną! Tak długo, jak to możliwe. W kontekstach teorii gier, gdy jest prawdziwy przeciwnik, losowanie pomaga mi go zdezorientować. W rzeczywistych kontekstach decyzyjnych (sprzedać czy nie sprzedać?) Należy podjąć decyzję, a jeśli nie ma dowodów w danych, być może można po prostu rzucić monetą. Ale w kontekście naukowym, gdzie pytanie dotyczy tego, czego możemy się nauczyćz danych wynika, że randomizacja wydaje się nie na miejscu. Nie widzę z tego żadnej realnej korzyści! Jeśli się nie zgadzasz, czy masz argument, który mógłby przekonać biologa lub chemika? (I tutaj nie myślę o symulacji jako części bootstrapu lub MCMC.)
źródło
Pomysł odnosi się do testowania, ale ze względu na dualność testowania i przedziały ufności ta sama logika dotyczy elementów CI.
Zasadniczo, testy losowe zapewniają, że dany eksperyment można uzyskać również dla eksperymentów o wartości dyskretnej.
Załóżmy, że chcesz przetestować, na poziomie , uczciwość monety (wstaw tutaj dowolny wybrany przez Ciebie przykład, który można modelować eksperymentem dwumianowym), używając prawdopodobieństwa p głów. Oznacza to, że testujesz H 0 : p = 0,5 względem (powiedzmy) H 1 : p < 0,5 . Załóżmy, że rzuciłeś monetą n = 10 razy.α=0.05 p H0:p=0.5 H1:p<0.5 n=10
Oczywiście niewiele głów jest dowodem przeciw . Dla k = 2 sukcesów możemy obliczyć wartość p testu w R, uzyskując 0,054. Dla k = 1 otrzymujemy 0,0107. Dlatego nie ma sposobu, aby odrzucić prawdziwe H 0 z prawdopodobieństwem 5% bez randomizacji.H0 k=2 p k=1 H0
pbinom(2,10,.5)
Jeśli randomizujemy nad odrzuceniem i akceptacją podczas obserwacji , nadal możemy osiągnąć ten cel.k=2
źródło