Odpowiadam „odpowiedź” na pytanie, które zadałem dwa tygodnie temu: Dlaczego wcześniejsza Jeffreys była przydatna? To było naprawdę pytanie (i nie miałem wtedy prawa do komentowania), więc mam nadzieję, że to będzie w porządku:
W powyższym linku omówiono, że interesującą cechą wcześniejszego Jeffreysa jest to, że podczas ponownej parametryzacji modelu wynikowy rozkład tylny daje prawdopodobieństwa tylne, które spełniają ograniczenia nałożone przez transformację. Na przykład, jak opisano tam podczas przechodzenia z sukcesem prawdopodobieństwa na przykład beta-Bernoulliego do kursów , to powinno być tak, że tylnego spełnia .
Chciałem stworzyć numeryczny przykład niezmienności Jeffreysa przed przekształceniem na szanse i, co bardziej interesujące, brak innych przeorów (np. Haldane, mundurowych lub arbitralnych).
Teraz, jeśli późniejszym prawdopodobieństwem sukcesu jest Beta (dla dowolnej wcześniejszej wersji Beta, nie tylko Jeffreysa), późniejsze szanse są zgodne z rozkładem Beta drugiego rodzaju (patrz Wikipedia) o tych samych parametrach . Następnie, jak podkreślono w poniższym przykładzie liczbowym, nie jest zbyt zaskakujące (przynajmniej dla mnie), że istnieje jakakolwiek niezmienność dla dowolnego wyboru wersji Beta przedtem (baw się z alpha0_U
ibeta0_U
), nie tylko Jeffreys, por. wyjście programu.
library(GB2)
# has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta)
theta_1 = 2/3 # a numerical example as in the above post
theta_2 = 1/3
odds_1 = theta_1/(1-theta_1) # the corresponding odds
odds_2 = theta_2/(1-theta_2)
n = 10 # some data
k = 4
alpha0_J = 1/2 # Jeffreys prior for the Beta-Bernoulli case
beta0_J = 1/2
alpha1_J = alpha0_J + k # the corresponding parameters of the posterior
beta1_J = beta0_J + n - k
alpha0_U = 0 # some other prior
beta0_U = 0
alpha1_U = alpha0_U + k # resulting posterior parameters for the other prior
beta1_U = beta0_U + n - k
# posterior probability that theta is between theta_1 and theta_2:
pbeta(theta_1,alpha1_J,beta1_J) - pbeta(theta_2,alpha1_J,beta1_J)
# the same for the corresponding odds, based on the beta distribution of the second kind
pgb2(odds_1, 1, 1,alpha1_J,beta1_J) - pgb2(odds_2, 1, 1,alpha1_J,beta1_J)
# same for the other prior and resulting posterior
pbeta(theta_1,alpha1_U,beta1_U) - pbeta(theta_2,alpha1_U,beta1_U)
pgb2(odds_1, 1, 1,alpha1_U,beta1_U) - pgb2(odds_2, 1, 1,alpha1_U,beta1_U)
To prowadzi mnie do następujących pytań:
- Czy popełniam błąd?
- Jeśli nie, to czy istnieje taki efekt, jak brak braku niezmienności w rodzinach małżeńskich, czy coś takiego? (Szybka kontrola prowadzi mnie do podejrzenia, że na przykład nie mógłbym również wykazać braku niezmienniczości w normalnym i normalnym przypadku).
- Znasz (najlepiej prosty) przykład, w którym możemy zrobić dostać brak niezmienności?
źródło
Odpowiedzi:
and
lead to the same posterior forψ . This will indeed always occur (caveat; as long as the transformation is such that a distribution over ψ is determined by a distribution over θ ).
However, this is not the point of the invariance in question. Instead, the question is whether, when we have a particular Method For Deciding The Prior, the following two procedures:
and
result in the same prior distribution forψ . If they result in the same prior, they will indeed result in the same posterior, too (as you have verified for a couple of cases).
As mentioned in @NeilG's answer, if your Method For Deciding The Prior is 'set uniform prior for the parameter', you will not get the same prior in the probability/odds case, as the uniform prior forθ over [0,1] is not uniform for ψ over [0,∞) .
Instead, if your Method For Deciding The Prior is 'use Jeffrey's prior for the parameter', it will not matter whether you use it forθ and convert into the ψ -parametrization, or use it for ψ directly. This is the claimed invariance.
źródło
It looks like you're verifying the likelihoods induced by the data are unaffected by parametrization, which has nothing to do with the prior.
If your way of choosing priors is to, e.g., "choose the uniform prior", then what is uniform under one parametrization (say Beta, i.e. Beta(1,1)) is not uniform under another, say, BetaPrime(1,1) (which is skewed) — it's BetaPrime(1,-1) is uniform if such a thing exists.
The Jeffreys prior is the only "way to choose priors" that is invariant under reparametrization. So it is less assumptive than any other way of choosing priors.
źródło
alpha1_J
intopbeta
andpgb2
this parameter is determined by both a prior parameter (alpha1_J
) and the data (k
), likewise for all the other parameters.