Rozważam dużą (ale skończoną) przestrzeń modeli o różnym stopniu złożoności, które eksploruję za pomocą RJMCMC . Wstęp na wektorze parametrów dla każdego modelu jest dość pouczający.
W jakich przypadkach (jeśli w ogóle) powinienem się martwić paradoksem Jeffreysa-Lindleya faworyzującym prostsze modele, gdy jeden z bardziej złożonych modeli byłby bardziej odpowiedni?
Czy są jakieś proste przykłady, które podkreślają problemy paradoksu w wyborze modelu Bayesa?
Przeczytałem kilka artykułów, a mianowicie blog Xi'ana i blog Andrew Gelmana , ale wciąż nie rozumiem problemu.
Odpowiedzi:
Przepraszam, że jestem niejasny na moim blogu !
Uwaga: Podałem trochę podstaw na temat wyboru modelu Bayesa i paradoksu Jeffreysa-Lindleya w tej drugiej odpowiedzi z potwierdzeniem Cross.
Paradoks Jeffreysa-Lindleya jest związany z wyborem modelu Bayesa, ponieważ prawdopodobieństwo krańcowe staje się bez znaczenia, gdy jest miarą skończoną (tj. miarą o nieskończonej masie), a nie miarą prawdopodobieństwa. Powodem tej trudności jest to, że nieskończona masa sprawia, że i nierozróżnialne dla żadnej dodatniej stałej . W szczególności nie można stosować współczynnika Bayesa i nie należy go stosować, gdy jeden model jest wcześniej wyposażony w „płaski”.
Oryginalny paradoks Jeffreysa-Lindleya wykorzystuje jako przykład rozkład normalny. Porównując modele i współczynnik Bayesa wynosi Jest dobrze zdefiniowane, gdy jest właściwym przeorem, ale jeśli weźmiesz normalny przeor on i pozwólmy przejść do nieskończoności, mianownik przechodzi do zera dla dowolnej wartości różnej od zera i dowolnej wartości . (Chyba że i
Teraz, jeśli wasze przeory mają charakter informacyjny (a zatem i właściwy), nie ma powodu do wystąpienia paradoksu Jeffreysa-Lindleya. Przy wystarczającej liczbie obserwacji czynnik Bayesa konsekwentnie wybiera model, który wygenerował dane. (Lub ściślej model w kolekcji modeli rozważanych do wyboru modelu, który jest najbliższy „prawdziwemu” modelowi, który wygenerował dane.)
źródło