Czy algorytm Gibbs Sampling gwarantuje szczegółową równowagę?

17

Mam najwyższą władzę 1, że Gibbs Sampling jest szczególnym przypadkiem algorytmu Metropolis-Hastings do próbkowania Markov Chain Monte Carlo. Algorytm MH zawsze daje prawdopodobieństwo przejścia z właściwością równowagi szczegółowej; Spodziewam się, że Gibbs też powinien. Więc gdzie w poniższym prostym przypadku popełniłem błąd?

Dla rozkładu docelowego π(x,y) na dwóch zmiennych dyskretnych (dla uproszczenia) pełne rozkłady warunkowe to:

q1(x;y)=π(x,y)zπ(z,y)q2(y;x)=π(x,y)zπ(x,z)

Jak rozumiem próbkowanie Gibbsa, prawdopodobieństwo przejścia można zapisać:

Prob{(y1,y2)(x1,x2)}=q1(x1;y2)q2(x2;x1)

Pytanie brzmi, czy ale najbliższe, jakie mogę uzyskać, to π ( y 1 , y 2 ) P r o b { ( y 1 , y 2 )

π(y1,y2)Prob{(y1,y2)(x1,x2)}=?π(x1,x2)Prob{(x1,x2)(y1,y2)},
Jest to subtelnie różne i nie oznacza szczegółowej równowagi. Dzięki za wszelkie przemyślenia!
π(y1,y2)Prob{(y1,y2)(x1,x2)}=π(y1,y2)q2(x2;x1)q1(x1;y2)=π(x1,x2)zπ(x1,z)π(x1,y2)zπ(z,y2)π(y1,y2)=π(x1,x2)q2(y2;x1)q1(y1;y2)
Ian
źródło

Odpowiedzi:

15

Próbowano pokazać szczegółową równowagę dla łańcucha Markowa, który uzyskuje się, biorąc pod uwagę jedno przejście łańcucha Markowa jako „wyciągnięcie Gibbsa”, w którym próbkuje się kolejno każdy składnik z jego rozkładu warunkowego. W przypadku tego łańcucha szczegółowa równowaga nie jest spełniona. Chodzi raczej o to, że każde próbkowanie konkretnego komponentu z jego rozkładu warunkowego jest przejściem, który spełnia szczegółową równowagę. Bardziej trafne byłoby stwierdzenie, że próbkowanie Gibbsa jest szczególnym przypadkiem nieco uogólnionej Metropolis-Hastings, gdzie na przemian występuje wiele różnych propozycji. Więcej szczegółów poniżej.

Przesunięcia nie zapewniają szczegółowej równowagi

X1,X2

X2=0X2=1X1=01313X1=1013
X1(0,0)(1,1)(0,0)(1,0)(1,1)(0,0)14

Jednak ten łańcuch nadal ma prawidłowy rozkład stacjonarny. Szczegółowa równowaga jest wystarczającym, ale nie koniecznym warunkiem konwergencji do rozkładu docelowego.

Ruchy komponentowe zapewniają równowagę szczegółową

(x1,x2)(y1,y2)x2y2x2=y2

π(x1,x2)Prob((x1,x2)(y1,x2))=π(x1,x2)p(y1X2=x2)=π(x1,x2)π(y1,x2)zπ(z,x2)=π(y1,x2)π(x1,x2)zπ(z,x2)=π(y1,x2)p(x1X2=x2)=π(y1,x2)Prob((y1,x2)(x1,x2)).

How the component-wise moves are Metropolis-Hastings moves?

Sampling from the first component, our proposal distribution is the conditional distribution. (For all other components, we propose the current values with probability 1). Considering a move from (x1,x2) to (y1,y2), the ratio of target probabilities is

π(y1,x2)π(x1,x2).
But the ratio of proposal probabilities is
Prob((y1,x2)(x1,x2))Prob((x1,x2)(y1,x2))=π(x1,x2)zπ(z,x2)π(y1,x2)zπ(z,x2)=π(x1,x2)π(y1,x2).
So, the ratio of target probabilities and the ratio of proposal probabilities are reciprocals, and thus the acceptance probability will be 1. In this sense, each of the moves in the Gibbs sampler are special cases of Metropolis-Hastings moves. However, the overall algorithm viewed in this light is a slight generalization of the typically presented Metropolis-Hastings algorithm in that you have alternate between different proposal distributions (one for each component of the target variable).
Juho Kokkala
źródło
Great answer, thanks (minor edit: y_2 -> x_2 in your third section). When calling the Gibbs sweep one step, is the existence of the stationary distribution (along with irreducibility and recurrence) a sufficient condition for convergence to the stationary distribution from any initial state?
Ian
3
The Gibbs sampler is a composition of Metropolis-Hastings moves with acceptance probability 1. Each move is reversible but the composition is not, unless the order of the steps is random.
Xi'an