Wynika to częściowo z następującego pytania i następującej po nim dyskusji.
Załóżmy, że zaobserwowano próbkę iid, . Celem jest oszacowanie . Ale oryginalna próbka nie jest dostępna. Co mamy w zamian pewne statystyki próbki . Załóżmy, że jest naprawiony. Jak oceniamy ? Jaki byłby w tym przypadku estymator maksymalnego prawdopodobieństwa?
estimation
maximum-likelihood
mpiktas
źródło
źródło
Odpowiedzi:
W takim przypadku można rozważyć przybliżenie prawdopodobieństwa ABC (aw konsekwencji MLE ) przy następujących założeniach / ograniczeniach:
Założenie. Oryginalny rozmiar próbki jest znany.n
Nie jest to dzikie założenie, biorąc pod uwagę, że jakość zbieżnych estymatorów pod względem zbieżności zależy od wielkości próby, dlatego nie można uzyskać arbitralnie dobrych estymatorów bez znajomości pierwotnej wielkości próby.
Chodzi o to, aby wygenerować próbkę z tylnego rozkładu a aby uzyskać przybliżenie MLE , można użyć ważnej techniki próbkowania jak w [1] lub rozważyć jednolity przed θ z poparciem na odpowiednim ustaw jak w [2] .θ θ
Opiszę tę metodę w [2]. Przede wszystkim opiszę sampler ABC.
ABC Sampler
Niech będzie modelem, który generuje próbkę, gdzie θ ∈ Θ jest parametrem (do oszacowania), T jest statystyką (funkcją próbki), a T 0 jest statystyką obserwowaną, w żargonie ABC nazywa się to statystyką podsumowującą , ρ być metryką, π ( θ ) wcześniejszy rozkład na θ i ϵ > 0 tolerancją. Następnie próbnik odrzucania ABC można zaimplementować w następujący sposób.f(⋅|θ) θ∈Θ T T0 ρ π(θ) θ ϵ>0
Algorytm ten generuje przybliżoną próbkę z rozkładu tylnego danej T ( x ) = T 0 . Dlatego najlepszym scenariuszem jest sytuacja, w której statystyka T jest wystarczająca, ale można zastosować inne statystyki. Bardziej szczegółowy opis tego znajduje się w tym dokumencie .θ T(x)=T0 T
Teraz, w ogólnym kontekście, jeśli ktoś użyje jednolitego przeora, który zawiera MLE w swoim wsparciu, wówczas Maximum a posteriori (MAP) pokrywa się z estymatorem Maximum Likelihood Estimator (MLE). Dlatego jeśli weźmiesz pod uwagę odpowiedni mundur wcześniej w Próbniku ABC, możesz wygenerować przybliżoną próbkę rozkładu tylnego, którego MAP pokrywa się z MLE. Pozostały krok polega na oszacowaniu tego trybu. Problem ten został omówiony w CV, na przykład w „Wydajnie obliczeniowym oszacowaniu trybu wielowymiarowego” .
Przykład zabawki
Niech jest próbką z N ( ľ , 1 ), i załóżmy, że tylko informacja dostępna z tej próbki jest ˉ x = 1(x1,...,xn) N(μ,1) . Niechρbędzie miarą euklidesową wR,aϵ=0,001. Poniższy kod R pokazuje, jak uzyskać przybliżony MLE przy użyciu metod opisanych powyżej, stosując symulowaną próbkę on=100iμ=0, próbkę rozkładu tylnego o wielkości1000, jednolity wcześniej dlaμon(-0,3,0,3)oraz estymator gęstości jądra do oszacowania trybu próbki tylnej (MAP = MLE).x¯=1n∑nj=1xj ρ R ϵ=0.001 n=100 μ=0 1000 μ (−0.3,0.3)
Jak widać, przy małej tolerancji uzyskujemy bardzo dobre przybliżenie MLE (które w tym trywialnym przykładzie można obliczyć ze statystyki, biorąc pod uwagę, że jest wystarczające). Należy zauważyć, że wybór statystyki podsumowującej ma kluczowe znaczenie. Kwantyle są zazwyczaj dobrym wyborem dla statystyki podsumowującej, ale nie wszystkie wybory dają dobre przybliżenie. Może się zdarzyć, że statystyki podsumowujące nie są zbyt pouczające, a zatem jakość aproksymacji może być niska, co jest dobrze znane w społeczności ABC.
Aktualizacja: Podobne podejście opublikowano niedawno w Fan et al. (2012) . Zobacz ten wpis, aby uzyskać dyskusję na papierze.
źródło
Wszystko zależy od tego, czy znany jest wspólny rozkład tych . Jeśli jest to np. ( T 1 , … , T k ) ∼ g ( t 1 , … , t k | θ , n ) , możesz przeprowadzić oszacowanie maksymalnego prawdopodobieństwa na podstawie tego wspólnego rozkładu. Pamiętaj, że jeśli ( T 1 , … , T k ) nie jest wystarczające, prawie zawsze będzie to inne maksymalne prawdopodobieństwo niż w przypadku korzystania z surowych danych (Ti
źródło
(Częstotliwość) estymator maksymalnego prawdopodobieństwa jest następujący:
Dlafa w rodzinie wykładniczej, a jeśli statystyki są wystarczające, prawdopodobieństwo maksymalizacji można zawsze zapisać w postaci:
The way you actually maximize the likelihood depends mostly on the possiblity to write the likelihood analytically in a tractable way. If this is possible you will be able to consider general optimisation algorithms (newton-raphson, simplex...). If you do not have a tractable likelihood, you may find it easier to compute a conditional expection as in the EM algorithm, which will also yield maximum likelihood estimates under rather affordable hypotheses.
Best
źródło