To nie jest praca domowa. Chciałbym zrozumieć, czy moja logika jest poprawna w przypadku tego prostego problemu dotyczącego statystyk.
Powiedzmy, że mam dwustronną monetę, w której prawdopodobieństwo przewrócenia głowy wynosi a prawdopodobieństwo przewrócenia ogona wynosi . Załóżmy, że wszystkie rzuty mają niezależne prawdopodobieństwo. Teraz powiedzmy, że chcę zmaksymalizować moje szanse na przewidzenie, czy moneta będzie głową czy ogonem podczas następnego rzutu. Jeśli , mogę zgadnąć losowo głowy lub reszki, a prawdopodobieństwo mojej poprawności wynosi .
Załóżmy teraz, że , jeśli chcę zmaksymalizować moje szanse na prawidłowe odgadnięcie, czy zawsze powinienem zgadywać ogony, w których prawdopodobieństwo wynosi ?
Idąc o krok dalej, gdybym miał matrycę 3-stronną, a prawdopodobieństwo rzutu 1, 2 lub 3 było , , a , czy powinienem zawsze zgadywać 2, aby zmaksymalizować moje szanse na prawidłowe zgadnięcie? Czy istnieje inne podejście, które pozwoliłoby mi dokładniej zgadywać?
źródło
Odpowiedzi:
Masz rację. Jeśli , a używasz straty zero-jedynkowej (to znaczy, musisz odgadnąć rzeczywisty wynik w przeciwieństwie do prawdopodobieństwa lub czegoś takiego, a ponadto zdobywanie głów, gdy odgadniesz, że ogony są równie złe jak dostając ogony, gdy odgadniesz głowy), powinieneś zgadywać ogony za każdym razem.P(H)=0.2
Ludzie często mylnie myślą, że odpowiedzią jest odgadnięcie ogonów na losowo wybranych 80% prób, a na pozostałych - głów. Strategia ta nazywa się „ dopasowywaniem prawdopodobieństwa ” i została szeroko zbadana w podejmowaniu decyzji behawioralnych. Zobacz na przykład
West, RF i Stanovich, KE (2003). Czy prawdopodobieństwo dopasowania jest inteligentne? Powiązania między wyborami probabilistycznymi a zdolnościami poznawczymi. Pamięć i poznanie, 31 , 243–251. doi: 10.3758 / BF03194383
źródło
Zasadniczo zadajesz bardzo interesujące pytanie: czy powinienem przewidzieć użycie „MAP Bayesian” Maximum a posteriori estymacji lub „Real Bayesian”.
Załóżmy, że znasz prawdziwy rozkład, że , a następnie używając oszacowania MAP, załóżmy, że chcesz zrobić 100 prognoz na następne 100 wyników przerzucania. Zawsze powinieneś zgadywać, że klapka jest ogonem , a NIE zgadywaniem 20 głów i 80 ogonów. Nazywa się to „MAP Bayesian”, w zasadzie robiszP(H)=0.2 20 80
Nie jest trudno udowodnić, że dzięki temu można zminimalizować przewidywany błąd (utrata 0-1). Dowód można znaleźć na ~ stronie 53 Wstępu do nauki statystycznej .
Istnieje inny sposób na to, zwany „prawdziwym bayesowskim” podejściem. Zasadniczo nie próbujesz „wybrać wyniku z najwyższym prawdopodobieństwem, ale rozważ wszystkie przypadki probablistycznie”. Jeśli więc ktoś poprosi cię o „przewidywanie kolejnych 100” rzutów, powinieneś go zatrzymać, ponieważ kiedy podałeś 100 wyników binarnych, informacja probabilistyczna dla każdego wyniku znika. Zamiast tego powinieneś zapytać, co chcesz zrobić PO znajomości wyników.
Załóżmy, że on / ona ma jakąś funkcję utraty (na przykład straty 0-1, funkcja utraty może być taka, że jeśli stracisz głowę, musisz zapłacić 1 $ , ale jeśli przegapisz ogon, musisz zapłacić 5 USD , tj. Niezbilansowana strata) w swojej prognozie, powinieneś wykorzystać swoją wiedzę o rozkładzie wyników, aby zminimalizować straty w całym rozkładzie
, tj. wykorzystaj swoją wiedzę na temat podziału na straty, zamiast „zorientowanego etapowo”, uzyskiwania prognoz i robienia kolejnych kroków.
źródło
Ze względu na niezależność wartość oczekiwań jest zawsze maksymalizowana, jeśli odgadniesz najbardziej prawdopodobny przypadek. Nie ma lepszej strategii, ponieważ każdy rzut / rzut nie daje żadnych dodatkowych informacji na temat monety / kości.
Gdziekolwiek odgadniesz mniej prawdopodobny wynik, twoje oczekiwania na wygraną są mniejsze niż w przypadku odgadnięcia najbardziej prawdopodobnego przypadku, dlatego lepiej zgadnąć najbardziej prawdopodobny przypadek.
Jeśli chciałeś to zrobić, abyś musiał zmienić strategię podczas odwracania, możesz rozważyć monetę / kość, w której początkowo nie znasz szans i musisz je rozpracować podczas rzutu.
źródło