Co jest takiego fajnego w twierdzeniu o reprezentacji de Finetti?

55

Z teorii statystyki Mark J. Schervish (strona 12):

Chociaż twierdzenie DeFinetti o reprezentacji 1.49 ma zasadnicze znaczenie dla motywowania modeli parametrycznych, w rzeczywistości nie jest wykorzystywane w ich implementacji.

W jaki sposób twierdzenie jest kluczowe dla modeli parametrycznych?

gui11aume
źródło
2
Myślę, że ma to kluczowe znaczenie dla modeli bayesowskich. Właśnie rozmawiałem o tym z singletonem. Jego znaczenie w statystyce bayesowskiej jest pomijane, z wyjątkiem tych Bayesian, którzy byli zwolennikami deFinetti. Zobacz odniesienie do Diaconisa i Freedmana z 1980 r.
Michael Chernick
1
@cardinal: strona 12 (zaktualizowałem pytanie).
gui11aume
2
Zauważ, że Schervish powiedział: „... centralne dla modeli parametrycznych ...”. motivating
Zen,
1
Często zastanawiałem się, ile tego przedstawienia jest „rzeczywiste”, a ile opiera się na konkretnych interpretacjach twierdzenia. Można go równie łatwo wykorzystać do opisania wcześniejszej dystrybucji, jak do opisu modelu.
probabilityislogic

Odpowiedzi:

79

De Finetti za reprezentowanie Twierdzenie daje w jednym odbiorze, w subiektywistycznej interpretacji prawdopodobieństwa, w raison d'être modeli statystycznych i znaczenie parametrów i ich rozkładów a priori.

Załóżmy, że zmienne losowe reprezentują wyniki kolejnych rzutów monety, przy wartościach i odpowiadających odpowiednio wynikom „Głowy” i „Ogony”. Analizując, w kontekście subiektywistycznej interpretacji rachunku prawdopodobieństwa, znaczenia typowego modelu częstościowego, w którym są niezależne i identycznie rozmieszczone, De Finetti zauważył, że warunek niezależności oznaczałby na przykład, że a zatem wyniki pierwszego rzuty nie zmieniłyby mojej niepewności co do wyniku 1 0 X i P { X n = x nX 1 = x 1 , , X n - 1 = x n - 1 } = P { X n = x n }X1,,Xn10Xin - 1 n a priori

P{Xn=xnX1=x1,,Xn1=xn1}=P{Xn=xn},
n1n-ty rzut. Na przykład, jeśli wierzę że jest to zrównoważona moneta, to po otrzymaniu informacji, że pierwsze rzutów okazało się „główkami”, nadal uważam, pod warunkiem, na podstawie tych informacji, że prawdopodobieństwo uzyskania „głów” na rzut 1000 jest równe . W efekcie hipoteza niezależności sugerowałaby, że nie można dowiedzieć się czegokolwiek o monecie, obserwując wyniki jej rzutów.a priori1 / 2 x I9991/2Xi

Ta obserwacja doprowadziła De Finetti do wprowadzenia stanu słabszego niż niezależność, który rozwiązuje tę pozorną sprzeczność. Kluczem do rozwiązania De Finetti jest rodzaj symetrii dystrybucyjnej zwanej wymiennością.

{ X i } n i = 1 μ X 1 , , X n μ X 1 , , X n = μ X π ( 1 ) , , X π ( n ) π : { 1 , , n } { 1 , , n } { X iDefinition. Dla danego zbioru skończonego losowych obiektów, niech oznaczają ich wspólny rozkład. Ten skończony zestaw jest wymienny, jeśli , dla każdej permutacji . Sekwencja losowych obiektów jest wymienna, jeśli każdy z jej skończonych podzbiorów jest wymienny.{Xi}i=1nμX1,,XnμX1,,Xn=μXπ(1),,Xπ(n)π:{1,,n}{1,,n}{Xi}i=1

Zakładając jedynie, że sekwencja zmiennych losowych jest wymienna, De Finetti udowodnił godne uwagi twierdzenie, które rzuca światło na znaczenie powszechnie stosowanych modeli statystycznych. W szczególnym przypadku, gdy przyjmują wartości i , Twierdzenie De Finetti o reprezentacji mówi, że jest wymienny tylko wtedy, gdy istnieje zmienna losowa , z rozkładem , takim że w którym . Co więcej, mamy to {Xi}i=1Xi01{Xi}i=1Θ:Ω[0,1]μΘ

P{X1=x1,,Xn=xn}=[0,1]θs(1θ)nsdμΘ(θ),
s=i=1nxi
X¯n=1ni=1nXinΘalmost surely,
co jest znane jako silne prawo wielkich liczb De Finetti.

To Twierdzenie o reprezentacji pokazuje, w jaki sposób powstają modele statystyczne w kontekście bayesowskim: pod hipotezą wymienności obserwowalnych , a tak, że biorąc pod uwagę wartość , obserwowalne są niezależne i identycznie rozmieszczone. Co więcej, Silne prawo De Finetti pokazuje, że nasza wcześniejsza opinia na temat nieobserwowalnego , reprezentowana przez rozkład , jest opinią na temat granicy , zanim będziemy mieli informacje o wartościach realizacji dowolnego z{Xi}i=1there isparameter ΘΘconditionallyΘμΘX¯nXi„s. Parametr odgrywa rolę użytecznej konstrukcji pomocniczej, która pozwala nam uzyskać prawdopodobieństwa warunkowe obejmujące tylko obserwowalne poprzez relacje takie jak Θ

P{Xn=1X1=x1,,Xn1=xn1}=E[ΘX1=x1,,Xn1=xn1].
Zen
źródło
2
Dziękuję za tę wnikliwą odpowiedź! Twoja uwaga na temat niezależności jest bardzo ważna, co uświadamiam sobie po raz pierwszy.
gui11aume
(„użyteczne” było lepsze :))
Neil G
1
Trudno mi zrozumieć zdanie „istnieje parametr więc (biorąc pod uwagę ) to iid”. Z twierdzenia o reprezentacji wydaje się, że wszystko, co możemy wywnioskować, to że . Oznacza to, że oczekiwana wartość gęstości rzeczywistej jest taka sama, jak wartość oczekiwana gęstości iid bernoulli z parametrem . Czy możesz wyjaśnić mi, w jaki sposób możemy obniżyć oczekiwaną wartość, abyśmy mogli twierdzić o samej prawdziwej gęstości? Θ X i E [ θ s ( 1 - θ ) s ] = E [ P ( X i = x iΘΘXiθE[θs(1θ)s]=E[P(Xi=xii|θ)]θ
user795305
Całkiem jest . Ponieważ jest on uwzględniany jako , są warunkowo podane jako . Pr{X1=x1,,Xn=xnΘ=θ}i=1nPr{Xi=xiΘ=θ}=i=1nθxi(1θ)1xiXiΘ=θ
Zen
@Zen Thanks! Rozumiem pierwsze zdanie, jednak część „, ponieważ jest to "nadal nie jest dla mnie jasne. Skąd wiesz, że to w ten sposób wpływa? Wygląda na to, że tracisz oczekiwaną wartość z tożsamości, którą napisałem w poprzednim komentarzu, ale nie jestem pewien, jak to uzasadnione. i=1nPr{Xi=xiΘ=θ}=i=1nθxi(1θ)1xi
user795305
17

Wszystko jest matematycznie poprawne w odpowiedzi Zen. Nie zgadzam się jednak w niektórych kwestiach. Pamiętaj, że nie twierdzę / nie uważam, że mój punkt widzenia jest dobry; wręcz przeciwnie, uważam, że te kwestie nie są jeszcze do końca jasne. Są to nieco filozoficzne pytania, o których lubię dyskutować (i dobre ćwiczenie z angielskiego) i jestem również zainteresowany wszelkimi radami.

  • O przykładzie z „Głowami”, komentarz Zen: „hipoteza niezależności sugerowałaby, że nie można dowiedzieć się niczego o monecie, obserwując wyniki jej rzutów”. Nie jest to prawdą z perspektywy częstych: poznanie monety oznacza poznanie , co jest możliwe poprzez oszacowanie (oszacowanie punktu lub przedział ufności) z poprzednich wyników. Jeśli częsty obserwuje „głów”, wówczas stwierdza, że jest prawdopodobnie bliskie , a zatem konsekwencji.999Xiθθ999999θ1Pr(Xn=1)

  • Nawiasem mówiąc, w tym przykładzie rzucania monetą, co to jest losowy ? Wyobrażając sobie, że każda z dwóch osób gra nieskończoną liczbę razy w tę samą monetę, dlaczego mieliby znaleźć inną ? Mam na myśli, że cechą losowania monet jest stała która jest wspólną wartością dla każdego gracza („prawie każdy gracz” z technicznych powodów matematycznych). Bardziej konkretnym przykładem, dla którego nie ma interpretowalnego losowego jest przypadek losowego próbkowania z zastąpieniem w skończonej populacji i .Θθ=X¯θX¯Θ01

  • O książce Schervisha i pytaniu postawionym przez PO myślę, że (szybko mówiąc) Schervish oznacza, że ​​wymienność jest „chłodnym” założeniem, a następnie twierdzenie deFinetti jest „fajne”, ponieważ mówi, że każdy model wymienny ma reprezentację parametryczną. Oczywiście całkowicie się zgadzam. Jeśli jednak model wymienny, taki jak i wtedy byłbym zainteresowany wykonaniem wnioskowanie o i , a nie o realizacji . Jeśli interesuje mnie tylko realizacja , nie widzę żadnego zainteresowania zakładaniem wymienności.Θ Beta ( a , b ) a b Θ Θ(XiΘ=θ)iidBernoulli(θ)ΘBeta(a,b)abΘΘ

Jest późno...

Stéphane Laurent
źródło
4
Cześć Stéphane! Dziękuję za komentarze na temat mojej odpowiedzi. Jeśli chodzi o twój pierwszy punkt, że , w mojej odpowiedzi wszystko jest wyrażone w kontekście bayesowskim. Nie ma prawdziwej próby ustalenia kontrastu z innymi paradygmatami wnioskowania. Krótko mówiąc, próbowałem wyrazić, co dla mnie, jako Bayesa, oznacza twierdzenie De Finettiego. "this is not true from the frequentist perspective"
Zen
4
O twoim drugim pocisku: losowy jest (as) granicą , jak podano w LLN De Finetti. Tak więc, gdy jakiś Bayesian mówi, że mój wcześniejszy to , oznacza to, że ten rozkład reprezentuje jego niepewność co do tego limitu, zanim będzie miał dostęp do danych. Różni Bayesianie mogą mieć różne priorytety, ale przy odpowiednich warunkach regularności będą mieli zgodę temat (podobni posteriori), ponieważ otrzymają coraz więcej informacji na temat wyników rzutów. ˉ X n Θ μ Θ a posteriori ΘΘX¯nΘμΘa posterioriΘ
Zen,
Naprawiony, ale nieznany nie jest koncepcją bayesowską. θ
Zen,
1
O twojej trzeciej kuli, biorąc pod uwagę: 1) że Schervish jest statystą bayesowskim; 2) Ilość czasu i energii, które spędza na omawianiu wymienności w swojej książce; Uważam, że dla niego rola twierdzenia De Finetti jest bardzo głęboka, wykraczająca daleko poza chłód. Ale zgadzam się, że i tak jest bardzo fajne!
Zen,
2
Aby wyjaśnić mój punkt widzenia: nie sądzę, aby w „podstawowym” (niehierarchicznym) modelu bayesowskim istniała przypadkowa . Istnieje ustalona nieznana , a poprzednia dystrybucja opisuje wiarę na ten temat. Rolą zmiennej losowej jest jedynie matematyczne traktowanie wnioskowania bayesowskiego, nie ma ona żadnej interpretacji w eksperymencie. Jeśli naprawdę zakładasz wymienne, ale nie niezależne obserwacje, takie jak przykład mojej trzeciej kuli, musisz umieścić hiperpriory na i . θ Θ a bθθΘab
Stéphane Laurent,
11

Być może zainteresuje Cię artykuł na ten temat (do uzyskania dostępu wymagana jest subskrypcja czasopisma - spróbuj uzyskać do niego dostęp ze swojej uczelni):

O'Neill, B. (2011) Wymienność, korelacja i efekt Bayesa. Międzynarodowy przegląd statystyczny 77 (2), s. 241–250.

Ten artykuł omawia twierdzenie o reprezentacji jako podstawę zarówno bayesowskich, jak i częstych modeli IID, a także stosuje je do przykładu rzucania monetą. Powinno to wyjaśnić dyskusję na temat założeń paradygmatu częstych. W rzeczywistości wykorzystuje szersze rozszerzenie do twierdzenia o reprezentacji wykraczające poza model dwumianowy, ale nadal powinno być przydatne.

Statystyki
źródło
Czy masz taką wersję papierową? Nie mam dostępu do bankomatu :-(
IMA
1
@Stats Przeczytałem ten artykuł po zobaczeniu twojej odpowiedzi. Muszę powiedzieć, że to najlepszy artykuł ilustrujący Bayesian i Frequentist w tej kwestii, jaką kiedykolwiek widziałem. Chciałbym przeczytać ten artykuł znacznie wcześniej. (+1)
KevinKim