Załóżmy, że mam pozytywne parametry oszacować i odpowiadające im pakietów szacunki produkowane przez estymatorów , tj. , i tak dalej.
Chciałbym oszacować podstawie dostępnych szacunków. Najwyraźniej naiwny estymator jest tendencyjnie niższy niż
Załóżmy, że mam pod ręką macierz kowariancji odpowiednich estymatorów . Czy można uzyskać obiektywne (lub mniej stronnicze) oszacowanie minimum przy użyciu podanych oszacowań i macierzy kowariancji?
unbiased-estimator
estimators
minimum
Cagdas Ozgenc
źródło
źródło
Odpowiedzi:
Nie mam jednoznacznej odpowiedzi na temat istnienia obiektywnego estymatora. Jednak pod względem błędu oszacowania oszacowanie jest z natury trudnym problemem.min(μ1,…,μn)
Na przykład niech i . Niech będzie wielkością docelową, a jest oszacowaniem . Jeśli użyjemy estymatora „naiwnego” gdzie , zatem błąd oszacowania jest ograniczony przez do stałej. (Zauważ, że błąd oszacowania dla każdego wynosi ). Oczywiście, jeśliY1,…,YN∼N(μ,σ2I) μ=(μ1,…,μn) θ=miniμi θ^ θ θ^=mini(Y¯i) Yi¯=1N∑Nj=1Yi,j L2
Dlatego naiwny estymator jest minimalny od optymalnego do stałego i nie ma lepszego oszacowania w tym sensie.θ
źródło
EDYCJA: Poniższe odpowiedzi odpowiadają na inne pytanie niż zadane - jest tak sformułowane, jakby był uważany za losowy, ale nie działa, gdy jest uważany za stały, co prawdopodobnie miało na myśli OP. Jeśli jest naprawione, nie mam lepszej odpowiedzi niżμ μ μ min(μ^1,...,μ^n)
Jeśli weźmiemy pod uwagę tylko szacunki średniej i kowariancji, możemy traktować jako pojedynczą próbkę z wielowymiarowego rozkładu normalnego. Prostym sposobem uzyskania oszacowania minimum jest następnie narysowanie dużej liczby próbek z , obliczenie minimum każdej próbki, a następnie wzięcie średniej z tych minimów.(μ1,...,μn) MVN(μ^,Σ)
Powyższą procedurę i jej ograniczenia można zrozumieć w kategoriach bayesowskich - biorąc pod uwagę zapis z Wikipedii na MVN , jeśli jest znaną kowariancją estymatorów i mamy jedną obserwację, wspólny rozkład tylny to w którym i wynikać ze stanu, w których przed obserwując żadnych danych bierzemy przed ). Ponieważ prawdopodobnie nie chcesz stawiać priorów na , możemy przyjąć limit jako , co powoduje płaskie wcześniejsze, a tylne staje sięΣ μ∼MVN(μ^+mλ01+m,1n+mΣ) λ0 m μ∼MVN(λ0,m−1Σ μ m→0 μ∼MVN(μ^,Σ) . Jednak biorąc pod uwagę płaskie wcześniejsze, domyślnie przyjmujemy założenie, że elementy różnią (jeśli wszystkie liczby rzeczywiste są jednakowo prawdopodobne, uzyskanie podobnych wartości jest bardzo mało prawdopodobne).μ
A szybkie symulacji pokazuje, że oszacowanie tej procedury nieco przeszacowanie , gdy elementy znacznie się różnią oraz docenia , gdy elementy są do siebie podobne. Można argumentować, że bez wcześniejszej wiedzy jest to prawidłowe zachowanie. Jeśli zechcesz podać przynajmniej niektóre wcześniejsze informacje (np. ), wyniki mogą stać się nieco lepsze dla twojego przypadku użycia.min(μ) μ min(μ) m=0.1
Jeśli chcesz założyć więcej struktur, możesz być w stanie wybrać lepszą dystrybucję niż normalna wielowarstwowa. Również sensowne może być użycie Stan lub innego próbnika MCMC w celu dopasowania szacunków w pierwszej kolejności. zestaw próbek które odzwierciedlają niepewność samych estymatorów, w tym ich strukturę kowariancji (być może bogatszą niż to, co może zapewnić MVN). Jeszcze raz możesz obliczyć minimum dla każdej próbki, aby uzyskać rozkład tylny w stosunku do minimów i wziąć średnią tego rozkładu, jeśli potrzebujesz oszacowania punktowego.μ (μ1,...,μn)
źródło