Jeśli dwie konkurujące estymatory θ 1 i θ 2 , czy M S E ( θ 1 ) < M S E ( θ 2 ) mówi, że θ 1 jest lepszy estymator zależy wyłącznie od twojej definicji "Najlepsza". Na przykład, jeśli porównujesz bezstronne estymatorów i „lepiej” znaczy ma mniejszą wariancję następnie, tak, oznaczałoby to, że θ 1 jest lepsza. M S Eθ^1θ^2)
M S E ( θ^1) < M S E ( θ^2))
θ^1θ^1M S Ejest popularnym kryterium ze względu na związek z najmniejszymi kwadratami i prawdopodobieństwem logarytmicznym Gaussa, ale podobnie jak wiele kryteriów statystycznych, należy ostrzec przed użyciem
ślepo jako miary jakości estymatora bez zwracania uwagi na zastosowanie.
M S E
Istnieją pewne sytuacje, w których wybór estymatora w celu zminimalizowania może nie być szczególnie rozsądnym rozwiązaniem. Przychodzą mi na myśl dwa scenariusze:M S E
Jeśli w zestawie danych występują bardzo duże wartości odstające, mogą one drastycznie wpłynąć na MSE, a zatem takie wartości odstające mogą wpływać na estymator, który minimalizuje MSE. W takich sytuacjach fakt, że estymator minimalizuje MSE, nie mówi zbyt wiele, ponieważ jeśli usuniesz wartości odstające, możesz uzyskać zupełnie inną ocenę. W tym sensie MSE nie jest „odporny” na wartości odstające. W kontekście regresji fakt ten motywował Huber M-Estimator (który omawiam w tej odpowiedzi), który minimalizuje inną funkcję kryterium (czyli połączenie błędu kwadratu i błędu absolutnego), gdy występują błędy o długich ogonach .
Jeśli szacujesz ograniczony parametr, porównywanie może nie być właściwe, ponieważ w takim przypadku inaczej karze się i zaniżanie. Załóżmy na przykład, że szacujesz wariancję, σ 2 . Następnie, jeśli świadomie nie docenisz ilości, twoje M S E może wynosić co najwyżej σ 4 , podczas gdy przeszacowanie może wytworzyć M S E znacznie przekraczające σ 4 , być może nawet o nieograniczoną kwotę.M S Eσ2)M S Eσ4M S Eσ4
Aby wyjaśnić te wady, podam konkretny przykład, kiedy z powodu tych problemów może nie być odpowiednią miarą jakości estymatora.M S E
X1, . . . , Xntν> 2ν/ (ν- 2 )
θ^1: t h e u n b i a s e d s a m p l e v a r i a n c e
θ^2)= 0 , r e g a r d l e s s o f t h e d a t a
M S E ( θ^2)) = ν2)( ν- 2 )2)M S E ( θ^1) = { ∞ν2)( ν- 2 )2)( 2n - 1+ 6n ( ν- 4 ))jeśli ν≤ 4jeśli ν> 4 .
tM S Eν< 4( 2n - 1+ 6n ( ν- 4 )) >1tθ^2)M S Eθ^1
M S EM S Eθ^
S.( θ^) = θ^ν/ (ν- 2 )- 1 - log( θ^ν/ (ν- 2 ))
S.( θ^1) = ∞
źródło
MSE jest prawdopodobnie dobrym wyborem, jeśli warunki błędu są zwykle dystrybuowane. Jeśli mają grubsze ogony, preferowany jest bardziej solidny wybór, taki jak wartość bezwzględna.
źródło
W Wniosku statystycznym Case & Berger, wydanie drugie, strona 332 stwierdza, że MSE karze równo za przeszacowanie i niedoszacowanie, co jest dobre w przypadku lokalizacji. Jednak w przypadku skali 0 jest naturalną dolną granicą, więc problem estymacji nie jest symetryczny. Zastosowanie MSE w tym przypadku zwykle wybacza niedoszacowanie.
Możesz sprawdzić, który estymator spełnia właściwości UMVUE, co oznacza użycie dolnej granicy Cramer-Rao. Str. 341.
źródło