Próbuję udowodnić, że obserwowana matryca informacji oceniana przy mało spójnym estymatorze maksymalnego prawdopodobieństwa (MLE), jest słabo spójnym estymatorem oczekiwanej matrycy informacji. Jest to często cytowany wynik, ale nikt nie podaje odniesienia ani dowodu (wyczerpałem się, myślę, że pierwsze 20 stron wyników Google i podręczników statystyk)!
Używając słabo spójnej sekwencji MLE, mogę użyć słabego prawa wielkich liczb (WLLN) i twierdzenia o ciągłym odwzorowaniu, aby uzyskać pożądany wynik. Uważam jednak, że nie można zastosować twierdzenia o ciągłym odwzorowaniu. Zamiast tego uważam, że należy zastosować jednolite prawo dużych liczb (ULLN). Czy ktoś wie o referencji, która ma na to dowód? Mam próbę na ULLN, ale na razie pomijam ją dla zwięzłości.
Przepraszam za długość tego pytania, ale należy wprowadzić notację. Notacja jest następująca (mój dowód znajduje się na końcu).
Załóżmy, że mamy próbkę losowych zmiennych o gęstości , gdzie (tutaj to po prostu ogólna zmienna losowa o takiej samej gęstości, jak dowolny z członków próby). Wektor jest wektorem wszystkich wektorów przykładowych, w których dla wszystkich . Prawdziwa wartość parametru dla gęstości to , a \ hat {\ theta} _ {N} (Y) jest słabo spójnym estymatorem maksymalnego prawdopodobieństwa (MLE) dla \ theta_ {0}θ N ( Y ) θ 0. Z zastrzeżeniem warunków prawidłowości matrycę informacji Fisher można zapisać jako
gdzie jest macierzą Hesji. Odpowiednikiem próbki jest
gdzie . Obserwowana macierz informacji to;
,
(niektóre osoby żądają, aby macierz była oceniana w ale niektórzy nie). Przykładowa matryca informacji obserwowana to;
gdzie .
Potrafię udowodnić zbieżność prawdopodobieństwa estymatora do , ale nie do . Oto mój dowód do tej pory;I ( θ ) N - 1 J N ( θ N ( Y ) ) I ( θ 0 )
Teraz jest elementem z , dla dowolnego . Jeśli próbka ma tę samą wartość, wówczas przy słabym prawie dużych liczb (WLLN) średnia prawdopodobieństwa tych sum jest zbieżna z prawdopodobieństwem do . Zatem dla wszystkich , a więc . Niestety nie możemy po prostu zawrzeć ( r , s ) J N ( θ ) r , s = 1 , … , k - E θ [ ( H θ ( log f ( N - 1 ( J N ( θ ) ) r s P → ( I ( θ ) ) r s r , s = 1 , … , k N N - 1 J N ( θ N (Y)) P → I( θ 0 ) N - 1 J N (⋅)I(⋅)używając twierdzenia o ciągłym odwzorowaniu, ponieważ nie jest tą samą funkcją co .
Każda pomoc w tym zakresie byłaby bardzo mile widziana.
Odpowiedzi:
Myślę, że jednym z możliwych podejść jest bezpośrednie ustanowienie pewnego rodzaju jednolitego prawa wielkich liczb.
Oto kolejna.
Chcemy pokazać, że .JN(θMLE)N⟶PI(θ∗)
(Jak już powiedziałeś, według WLLN . Ale to nie pomaga nam bezpośrednio.)JN(θ)N⟶PI(θ)
Jedną z możliwych strategii jest wykazanie, że
i
Jeśli oba wyniki są prawdziwe, możemy je połączyć, aby uzyskać
co dokładnie chcemy pokazać.
Pierwsze równanie wynika ze słabego prawa wielkich liczb.
Drugi prawie wynika z twierdzenia o ciągłym odwzorowywaniu, ale niestety nasza funkcja , że chcemy zastosować CMT do zmian za pomocą : nasze to tak naprawdę . Dlatego nie możemy korzystać z CMT.g() N g gN(θ):=JN(θ)N
(Komentarz: Jeśli przeanalizujesz dowód CMT na Wikipedii, zauważ, że zestaw który zdefiniowali dla nas w swoim dowodzie, zależy teraz również od . Zasadniczo potrzebujemy pewnego rodzaju nieciągłości w nad naszymi funkcjami .)Bδ n θ∗ gN(θ)
Na szczęście, jeśli założymy, że rodzina jest stochastycznie nierównomiernie ciągłe w , a następnie natychmiast wynika, że dla ,G={gN|N=1,2,…} θ∗ θMLE⟶Pθ∗
(Zobacz tutaj: http://www.cs.berkeley.edu/~jordan/courses/210B-spring07/lectures/stat210b_lecture_12.pdf w celu uzyskania definicji stochastycznej równości ciągłości w oraz dowodu powyższego faktu. )θ∗
Dlatego, zakładając, że jest SE w , pożądany wynik jest prawdziwy, a empiryczna informacja Fishera zbiega się z informacją Fishera dla populacji.G θ∗
Kluczowym pytaniem jest oczywiście, jakie warunki należy nałożyć na aby uzyskać SE? Wygląda na to, że jednym ze sposobów jest ustanowienie warunku Lipshitza dla całej klasy funkcji (patrz tutaj: http://econ.duke.edu/uploads/media_items/uniform-convergence-and-stochastic -equicontinuity.original.pdf ).G G
źródło
Powyższa odpowiedź przy użyciu stochastycznej równości ciągłości działa bardzo dobrze, ale tutaj odpowiadam na moje własne pytanie, stosując jednolite prawo dużych liczb, aby pokazać, że zaobserwowana matryca informacji jest bardzo spójnym estymatorem macierzy informacji, tj. jeśli podłączymy mocno spójną sekwencję estymatorów. Mam nadzieję, że jest poprawny we wszystkich szczegółach.N−1JN(θ^N(Y))⟶a.s.I(θ0)
Użyjemy aby być zestawem indeksów, i tymczasowo przyjmijmy zapis , aby jasno powiedzieć o zależności od losowego wektora . Będziemy również pracować elementarnie z i , , dla tej dyskusji. Funkcja ma wartość rzeczywistą na zbiorze i przypuszczamy, że jest to Lebesgue mierzalne dla każdegoIN={1,2,...,N} J(Y~,θ):=J(θ) J(θ) Y~ (J(Y~,θ))rs (JN(θ))rs=∑Ni=1(J(Yi,θ))rs r,s=1,...,k (J(⋅,θ))rs Rn×Θ∘ θ∈Θ∘ . Jednolite (silne) prawo dużej liczby określa zestaw warunków, w których
Warunki, które muszą być spełnione, aby (1) wstrzymywały się to (a) to zestaw zwarty; (b) jest funkcją ciągłą w z prawdopodobieństwem 1; (c) dla każdego jest zdominowany przez funkcję , tj. ; oraz (d) dla każdego ;. Warunki te pochodzą od Jennricha (1969, Theorem 2).Θ∘ (J(Y~,θ))rs Θ∘ θ∈Θ∘ (J(Y~,θ))rs h(Y~) |(J(Y~,θ))rs|<h(Y~) θ∈Θ∘ Eθ[h(Y~)]<∞
Teraz dla każdego , i oczywista jest następująca nierównośćyi∈Rn i∈IN θ′∈S⊆Θ∘
Załóżmy, że jest bardzo spójną sekwencją estymatorów dla i pozwól bądź otwartą piłką w o promieniu jako , i załóżmy, że jest zwarty. Następnie, ponieważ dla wystarczająco duże, mamy dla dostatecznie dużej . W połączeniu z (2) oznacza to{θ^N(Y)} θ0 ΘN1=BδN1(θ0)⊆K⊆Θ∘ Rk δN1→0 N1→∞ K θ^N(Y)∈ΘN1 N P[limN{θ^N(Y)∈ΘN1}]=1 N
Teraz implikuje warunki (a) - (d) Jennricha (1969, Twierdzenie 2) mające zastosowanie do . Zatem (1) i (3) implikująΘN1⊆Θ∘ ΘN1
Ponieważ to (4) oznacza, że . Zauważ, że (3) zawiera jakkolwiek małe , a zatem wynik w (4) jest niezależny od wyboru innego niż musi być wybrany tak, aby . Ten wynik dotyczy wszystkich , a więc pod względem macierzy mamy .(I(θ^N(Y)))rs⟶a.s.I(θ0) N−1(JN(θ^N(Y)))rs⟶a.s.(I(θ0))rs ΘN1 N1 N1 ΘN1⊆Θ∘ r,s=1,...,k N−1JN(θ^N(Y))⟶a.s.I(θ0)
źródło