Jakie są definicje częściowo sprzężonych priorów i warunkowych sprzężonych priorów ? Znalazłem je w analizie danych bayesowskich Gelmana , ale nie mogłem znaleźć ich definicji.
Stosując definicję w analizie danych bayesowskich (wydanie 3) , jeśli jest klasą rozkładów próbkowania , a jest klasą wcześniejszych rozkładów dla , to klasa jest sprzężona z jeśli
Jeśli jest klasą rozkładów próbkowania , a jest klasą wcześniejszych rozkładów dla od , to klasa jest sprzężona warunkowa dla jeżeli
Warunkowo sprzężone priory są wygodne w konstruowaniu samplera Gibbsa, ponieważ pełną warunkową będzie znana rodzina.
Przeszukałem elektroniczną wersję analizy danych bayesowskich (wydanie trzecie) i nie mogłem wcześniej znaleźć odniesienia do półkoniugatu. Domyślam się, że jest to synonim warunkowo koniugatu, ale jeśli podasz odniesienie do jego zastosowania w książce, powinienem być w stanie podać definicję.
Jako przykład chciałbym użyć normalnej zmiennej wielowymiarowej.
Przypomnij, że prawdopodobieństwo jest podane przez
Aby znaleźć to prawdopodobieństwo, możemy wybrać
Zapewniam cię, że nie musisz się martwić o ; są to po prostu parametry wcześniejszej dystrybucji.μ0,Λ0,ν0,S0
Ważne jest jednak, aby nie wiązało się to z prawdopodobieństwem. Aby zobaczyć dlaczego, chciałbym zacytować referencję, którą znalazłem w Internecie.
Odniesieniem jest „Machine Learning: A Probabilistic Perspective” Kevina P. Murphy'ego. Oto link . Cytat można znaleźć w punkcie 4.6 (Wnioskowanie o parametrach MVN) na górze strony 135.
Aby kontynuować wycenę,
Chodzi o to, że pierwsza wcześniejsza dystrybucja
zakłada, że i są rozdzielne (lub w pewnym sensie niezależne). Niemniej jednak obserwujemy, że w funkcji prawdopodobieństwa i nie mogą być podzielone na czynniki osobno, co oznacza, że nie będzie można ich rozdzielić w późniejszym (Przypomnij, ). To pokazuje, że „nierozdzielalne” tylne i „rozłączne” na początku nie są sprzężone. Z drugiej strony, przepisującΣ μ Σ ( Tylna ) ∼ ( Poprzednia ) ( Prawdopodobieństwo )μ Σ μ Σ (Posterior)∼(Prior)(Likelihood)
tak, że i zależą od siebie (poprzez ), uzyskasz koniugat przed, który jest nazwany jako pół-koniugat przed . Mam nadzieję, że to odpowiada na twoje pytanie.Σ p ( μ | Σ )μ Σ p(μ|Σ)
ps : Innym naprawdę przydatnym odniesieniem, którego użyłem, jest „Pierwszy kurs bayesowskich metod statystycznych” Petera D. Hoffa. Oto link do książki. Odpowiednie treści można znaleźć w rozdziale 7, zaczynając od strony 105, a on ma bardzo dobre wyjaśnienie (i intuicję) na temat rozkładu normalnego pojedynczego wariantu w rozdziale 5, począwszy od strony 67, który zostanie ponownie wzmocniony w rozdziale 7, gdy zajmie się MVN.
źródło
Jeśli jest klasą rozkładów próbkowania , a jest klasą wcześniejszych rozkładów dla , to klasa jest półprzewodnikiem dla jeżeli dla wszystkich i , gdzie i nie należy do klasy .F p(y|θ,ϕ) θ P F p ( θ | y , ϕ ) ∈ P p ( ⋅ | θ , ϕ ) ∈ F p ( θ , ϕ ) = p ( θ ) × p ( ϕ ) p ( θ ) ∈ P p ( ϕ ) P.P θ P F p(θ|y,ϕ)∈P p(⋅|θ,ϕ)∈F p(θ,ϕ)=p(θ)×p(ϕ) p(θ)∈P p(ϕ) P
źródło