Czy możesz podać przykład estymatora MLE średniej stronniczości?
Nie szukam przykładu, który ogólnie łamie estymatory MLE, naruszając warunki regularności.
Wszystkie przykłady, które widzę w Internecie, odnoszą się do wariancji i nie mogę znaleźć niczego związanego ze średnią.
EDYTOWAĆ
@MichaelHardy podał przykład, w którym otrzymujemy tendencyjne oszacowanie średniej rozkładu jednolitego przy użyciu MLE w ramach określonego proponowanego modelu.
jednak
https://en.wikipedia.org/wiki/Uniform_distribution_(continuous)#Estimation_of_midpoint
sugeruje, że MLE jest jednakowo minimalnym obiektywnym estymatorem średniej, wyraźnie w innym proponowanym modelu.
W tym momencie nadal nie jest dla mnie bardzo jasne, co oznacza estymacja MLE, jeśli jest ona bardzo hipotetycznie zależna od modelu, w przeciwieństwie do estymatora średniej próby, który jest neutralny dla modelu. Na koniec jestem zainteresowany oszacowaniem czegoś na temat populacji i tak naprawdę nie obchodzi mnie oszacowanie parametru modelu hipotetycznego.
EDYCJA 2
Jak @ChristophHanck pokazał model z dodatkowymi informacjami wprowadzonymi uprzedzeniami, ale nie udało się zmniejszyć MSE.
Mamy również dodatkowe wyniki:
http://www.maths.manchester.ac.uk/~peterf/CSI_ch4_part1.pdf (p61) http://www.cs.tut.fi/~hehu/SSP/lecture6.pdf (slajd 2) http: / /www.stats.ox.ac.uk/~marchini/bs2a/lecture4_4up.pdf (slajd 5)
„Jeśli istnieje najbardziej wydajny obiektywny estymator ˆθ z ((tj. ˆΘ jest obiektywny, a jego wariancja jest równa CRLB), metoda szacowania przy maksymalnym prawdopodobieństwie go wytworzy”.
„Ponadto, jeśli istnieje skuteczny estymator, jest to estymator ML”.
Ponieważ MLE z parametrami modelu swobodnego jest obiektywny i wydajny, to z definicji jest to „Estymator maksymalnego prawdopodobieństwa?
EDYCJA 3
@AlecosPapadopoulos ma przykład z rozkładem Half Normal na forum matematycznym.
/math/799954/can-the-maximum-likelihood-estimator-be-unnośne-and-fail-to-achieve-cramer-rao
Nie zakotwicza żadnego z jego parametrów, jak w przypadku jednolitym. Powiedziałbym, że to załatwia sprawę, chociaż nie wykazał stronniczości przeciętnego estymatora.
źródło
Odpowiedzi:
Christoph Hanck nie opublikował szczegółów swojego proponowanego przykładu. Rozumiem, że oznacza rozkład równomierny w przedziale[0,θ], na podstawie próbki Iid X1,…,Xn o wielkości większej niż n=1.
Średnia toθ/2 .
Średnia MLE tomax{X1,…,Xn}/2.
Jest to tendencyjne, ponieważ więc E ( max / 2 ) < θ / 2.Pr(max<θ)=1, E(max/2)<θ/2.
PS: Być może powinniśmy zauważyć, że najlepszym obiektywnym estymatorem średniej nie jest średnia z próby, ale raczej n + 1θ/2 Średnia próbki jest kiepskim estymatoremθ/2,ponieważ dla niektórych próbek średnia próbki jest mniejsza niż
Podejrzewam, że dystrybucja Pareto to kolejny taki przypadek. Oto miara prawdopodobieństwa: Oczekiwana wartość toα
Nie opracowałem oczekiwanej wartości MLE dla średniej, więc nie wiem, jaka jest jej stronniczość.
źródło
Oto przykład, który moim zdaniem może zaskoczyć:
W regresji logistycznej dla dowolnej skończonej wielkości próby z wynikami niedeterministycznymi (tj.0<pi<1 ), każdy oszacowany współczynnik regresji jest nie tylko tendencyjny, średnia współczynnika regresji jest w rzeczywistości nieokreślona.
Wynika to z faktu, że dla dowolnej skończonej wielkości próbki istnieje dodatnie prawdopodobieństwo (choć bardzo małe, jeśli liczba próbek jest duża w porównaniu z liczbą parametrów regresji) uzyskania idealnego rozdziału wyników. Kiedy tak się stanie, szacowane współczynniki regresji będą wynosić lub ∞ . Mając dodatnie prawdopodobieństwo bycia - ∞ lub ∞−∞ ∞ −∞ ∞ oznacza, że oczekiwana wartość jest niezdefiniowana.
Aby uzyskać więcej informacji na ten temat, zobacz efekt Haucka-Donnera .
źródło
Chociaż @MichaelHardy dokonał punkt, tutaj jest bardziej szczegółowy argumentem, dlaczego MLE maksimum (a więc, że od średniej , według niezmienniczości) nie jest obiektywne, chociaż jest w innym modelu (patrz edycja poniżej).θ/2
Szacujemy górną granicę rozkładu równomiernego . Tutaj y ( n ) jest MLE dla losowej próbki y . Pokazujemy, że y ( n ) nie jest bezstronny. Jego format cdf to F y ( n ) ( x )U[0,θ] y(n) y y(n)
Zatem jego gęstość wynosi
fy(n)(x)={n
EDIT: It is indeed the case that (see the discussion in the comments) the MLE is unbiased for the mean in the case in which both the lower bounda and upper bound b are unknown. Then, the minimum Y(1) is the MLE for a , with (details omitted) expected value
EDIT 2: To elaborate on Henry's point, here is a little simulation for the MSE of the estimators of the mean, showing that while the MLE if we do not know the lower bound is zero is unbiased, the MSEs for the two variants are identical, suggesting that the estimator which incorporates knowledge of the lower bound reduces variability.
źródło
Completing here the omission in my answer over at math.se referenced by the OP,
assume that we have an i.i.d. sample of sizen of random variables following the Half Normal distribution. The density and moments of this distribution are
The log-likelihood of the sample is
The first derivative with respect tov is
so it is a method of moments estimator. It is unbiased since,
But, the resulting estimator for the mean is downward biased due to Jensen's inequality
źródło
The famous Neyman Scott problem has an inconsistent MLE in that it never even converges to the right thing. Motivates the use of conditional likelihood.
Take(Xi,Yi)∼N(μi,σ2) . The MLE of μi is (Xi+Yi)/2 and of σ2 is σ^2=∑ni=11ns2i with s2i=(Xi−μ^i)2/2+(Yi−μ^i)2/2=(Xi−Yi)2/4 which has expected value σ2/4 and so biased by a factor of 2.
źródło
There is an infinite range of examples for this phenomenon since
źródło