Pomoc w oczekiwaniu Maksymalizacja z papieru: jak uwzględnić wcześniejszą dystrybucję?

9

Pytanie oparte jest na pracy zatytułowanej: Rekonstrukcja obrazu w rozproszonej tomografii optycznej z wykorzystaniem sprzężonego radiacyjnego modelu transportowo-dyfuzyjnego

Link do pobrania

Autorzy stosują algorytm EM z rzadkości nieznanego wektora celu oszacowania pikseli obrazu. Model podajel1μ

(1)y=Aμ+e
Oszacowanie podano w równaniu (8) as

(2)μ^=argmaxlnp(y|μ)+γlnp(μ)

W moim przypadku uważałem μ za filtr o długości L a μ to wektory L×1 reprezentujące filtry. Więc,

Model można przepisać jako

(3)y(n)=μTa(n)+v(n)

Pytanie: Sformułowanie problemu: μ(n) (n przez 1) to nieobserwowane dane wejściowe, a {e(n)} to średnia zero przy nieznanej wariancji σe2 addytywny hałas. Rozwiązanie MLE będzie oparte na Expectation Maximization (EM).

W pracy Eq (19) jest funkcja A - pełne prawdopodobieństwo logarytmiczne, ale w moim przypadku nie rozumiem, w jaki sposób mogę zawrzeć rozkład A,μ w pełnym wyrażeniu logarytmicznym.

Jakie będzie całkowite prawdopodobieństwo logarytmiczne przy użyciu EM dla y tym wcześniejszej dystrybucji?

SKM
źródło
Czy faktycznie chcesz prawdopodobieństwa dziennika, czy zamiast tego chcesz dziennika-później? Tylko ta ostatnia będzie obejmować przeora Laplaciana. To pierwsze można uzyskać po prostu biorąc dziennik prawdopodobieństwa, który wydaje się, że już
Są dwa wyrażenia, które chcę - (1) Jednym, który zostanie użyty do znalezienia Matrycy Informacji Fishera, a (2) drugim będzie pdf pełnego zestawu danych, który zawiera ukrytą zmienną i obserwacje, które są połączeniem gęstość prawdopodobieństwa obserwowanych danych w funkcji parametru . Plik pdf, który napisałem, dotyczy modelu MA do ślepej oceny . Ale jak będzie inaczej dla ograniczenia rzadkości = wcześniej Laplaciana, aby można było znaleźć Matrycę Informacji Fishera z częściowych pochodnych prawdopodobieństwa logarytmu. Zθθ
SKM,
@ Xi'an: Nie rozumiem, jak podłączyć 3 pliki PDF, które obejmują wcześniejsze w formułowaniu prawdopodobieństwa dziennika. Potrafię wypracować maksymalizację polegającą na przyjęciu pochodnej cząstkowej i zrównaniu zera. Czy możesz podać odpowiedź z wyraźnym wypisanym wyrażeniem prawdopodobieństwa. To naprawdę pomoże
SKM

Odpowiedzi:

3

Jeśli uznamy cel za reprezentacja u podstawy EM to dla dowolnego , z powodu rozkładu lub który działa na dowolną wartość (ponieważ nie ma żadnej wartości na lhs ), a zatem działa również na każde oczekiwanie w :

argmaxθL(θ|x)π(θ)=argmaxθlogL(θ|x)+logπ(θ)
logL(θ|x)=E[logL(θ|x,Z)|x,θ]E[logq(Z|x,θ)|x,θ]
θ
q(z|x,θ)=f(x,z|θ)/g(x|θ)
g(x|θ)=f(x,z|θ)/q(z|x,θ)
zZ
logg(x|θ)=logf(x,z|θ)logq(z|x,θ)=E[logf(x,Z|θ)logq(Z|x,θ)|x]
dla dowolnego warunkowego rozkładu podanego , na przykład . Dlatego jeśli maksymalizujemy w z rozwiązaniem mamy while standardowymi argumentami EM. Dlatego ZX=xq(z|x,θ)θ
E[logL(θ|x,Z)|x,θ]+logπ(θ)
θ1
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
E[logq(Z|x,θ)|x,θ]E[logq(Z|x,θ1)|x,θ]
E[logL(θ1|x,Z)|x,θ]+logπ(θ1)E[logL(θ|x,Z)|x,θ]+logπ(θ)
i użycie jako kroku E celu prowadzi do wzrostu tylnej części przy każdym M krok, co oznacza, że ​​zmodyfikowany algorytm EM jest zbieżny z lokalną MAP.
E[logL(θ|x,Z)|x,θ]+logπ(θ)
Xi'an
źródło
Dziękuję za odpowiedź. Czy reprezentuje pdf ? Czy mógłbyś zadać sobie pytanie, dlaczego istnieją 2 oczekiwania z Odejmowane w równaniu wspomnianym w drugim wierszu? q()ZE[logq(.)]
SKM
Dodałem kilka wyjaśnień, ale powinieneś sprawdzić w podręczniku wyprowadzenie algorytmu EM, ponieważ jest to standardowy materiał.
Xi'an
1

Nie sądzę, aby wykazanie monotonicznego wzrostu log-a posterior (lub logarytmu prawdopodobieństwa dla MLE) było wystarczające do wykazania zbieżności z punktem stacjonarnym oszacowania MAP (lub MLE). Na przykład przyrosty mogą stać się dowolnie małe. W słynnej pracy Wu 1983 wystarczającym warunkiem zbliżenia się do stacjonarnego punktu EM jest różniczkowalność obu argumentów funkcji dolnej granicy.

Jim.Z
źródło