Twierdzenie Bayesa idzie
Wszystko w porządku. Ale gdzieś przeczytałem:
Zasadniczo P (dane) jest tylko stałą normalizującą, tj. Stałą, która powoduje zintegrowanie gęstości tylnej z jedną.
Wiemy, że i . 0 ≤ P ( dane | model ) ≤ 1
Dlatego musi mieć wartość od 0 do 1. W takim przypadku, dlaczego potrzebujemy stałej normalizującej, aby zintegrować tylną z jedną?
probability
bayesian
conditional-probability
bayes
Sreejith Ramakrishnan
źródło
źródło
0 <= P(model) <= 1
ani0 <= P(data/model) <= 1
, ponieważ jeden (lub nawet oba!) Z nich może przekroczyć (a nawet być nieskończony). Zobacz stats.stackexchange.com/questions/4220 .Odpowiedzi:
Po pierwsze , całka „prawdopodobieństwa x wcześniej” nie jest koniecznie 1 .
Nie jest prawdą, że jeśli:
wówczas całka tego produktu w odniesieniu do modelu (rzeczywiście do parametrów modelu) wynosi 1.
Demonstracja. Wyobraź sobie dwie odrębne gęstości:
Jeśli pomnożymy je oba, otrzymamy: co nie jest prawidłową gęstością, ponieważ nie integruje się z jedną: 0,40 + 0,25 = 0,65
(przepraszam za kiepską notację. Napisałem trzy różne wyrażenia tego samego, ponieważ można je wszystkie zobaczyć w literaturze)
Po drugie , „prawdopodobieństwo” może być dowolne, a nawet jeśli jest gęstością, może mieć wartości wyższe niż 1 .
Jak powiedział @whuber, czynniki te nie muszą wynosić od 0 do 1. Potrzebują, aby ich całka (lub suma) wynosiła 1.
Po trzecie [dodatkowe] „koniugaty” to twoi przyjaciele, którzy pomogą ci znaleźć stałą normalizującą .
źródło
Krótka odpowiedź na twoje pytanie jest taka, że bez mianownika wyrażenie po prawej stronie jest jedynie prawdopodobieństwem , a nie prawdopodobieństwem , które może mieścić się w zakresie od 0 do 1. „Stała normalizująca” pozwala nam uzyskać prawdopodobieństwo wystąpienie zdarzenia, a nie tylko względne prawdopodobieństwo tego zdarzenia w porównaniu z innym.
źródło
Masz już dwie prawidłowe odpowiedzi, ale pozwól mi dodać dwa centy.
Twierdzenie Bayesa jest często definiowane jako:
ponieważ jedynym powodem, dla którego potrzebujesz stałej jest integracja z 1 (zobacz odpowiedzi innych). Nie jest to potrzebne w większości podejść symulacyjnych MCMC do analizy bayesowskiej, a zatem stała jest usuwana z równania. W przypadku większości symulacji nie jest to nawet wymagane.
Ja kocham opisu przez Kruschke : ostatni szczeniak (stały) jest senna, bo nie ma nic do zrobienia w tej formule.
Również niektórzy, jak Andrew Gelman, uważają stałą za „przereklamowaną” i „w zasadzie bez znaczenia, gdy ludzie używają płaskich priorów” (zobacz dyskusję tutaj ).
źródło