Ta część dotyczy przede wszystkim pierwszego, trzeciego i czwartego pytania:
Istnieje zasadnicza różnica między statystyką bayesowską a statystyką częstościową.
Częstotliwościowe statystyki pozwalają wnioskować o tym, które ustalone wartości parametrów są spójne z danymi postrzeganymi losowo, zwykle na podstawie prawdopodobieństwa. Bierzesz (niektóre parametry lub parametry) jako stałe, ale nieznane, i widzisz, które zwiększają prawdopodobieństwo danych; analizuje właściwości próbkowania z jakiegoś modelu, biorąc pod uwagę parametry, aby wnioskować o tym, gdzie mogą być parametry. (Bayesian mógłby powiedzieć, że częste podejście opiera się na „częstotliwościach rzeczy, które się nie wydarzyły”)θ
Statystyka bayesowska analizuje informacje o parametrach pod względem rozkładu prawdopodobieństwa na nich, które są aktualizowane przez dane, według prawdopodobieństwa. Parametry mają rozkłady, więc patrzysz na .P(θ|x––)
Powoduje to rzeczy, które często wyglądają podobnie, ale w których zmienne w jednym wyglądają „w niewłaściwy sposób” oglądane przez obiektyw innego sposobu myślenia o tym.
Zasadniczo są to nieco inne rzeczy, a fakt, że rzeczy, które znajdują się na LHS jednego znajdują się na RHS drugiego, nie jest przypadkiem.
Jeśli popracujesz nad obiema, wkrótce stanie się to dość jasne.
Wydaje mi się, że drugie pytanie dotyczy po prostu literówki.
---
stwierdzenie „ekwiwalent zwykłego rozkładu częstości próbkowania”, to znaczy: „Zrozumiałem, że autorzy stwierdzili rozkład częstości próbkowania. Czy przeczytałem to źle?
Działają tam dwie rzeczy - wyrażają coś nieco luźno (ludzie przez cały czas robią ten szczególny rodzaj przesadnej ekspresji) i myślę, że interpretujecie to również inaczej niż intencję.
Co zatem dokładnie oznacza ich wyrażenie?
Mam nadzieję, że poniższa dyskusja pomoże wyjaśnić zamierzony sens.
Jeśli możesz podać odniesienie (wcześniej. Online, ponieważ nie mam dobrego dostępu do biblioteki), gdzie pochodzi to wyrażenie, byłbym wdzięczny.
Wynika stąd:
http://en.wikipedia.org/wiki/Bayesian_linear_regression
biorąc płaskie priory na i myślę, że także wcześniejszy .βσ2
Powodem jest to, że tylny jest w ten sposób proporcjonalny do prawdopodobieństwa, a przedziały generowane z tylnych na parametrach pasują do częstych przedziałów ufności dla parametrów.
Można znaleźć kilka pierwszych stron tutaj pomocny.