Właśnie zacząłem studiować statystyki i nie mogę intuicyjnie zrozumieć wystarczalności. Mówiąc ściślej, nie rozumiem, jak pokazać, że następujące dwa akapity są równoważne:
Z grubsza, biorąc pod uwagę zestaw X niezależnych identycznie rozmieszczonych danych uwarunkowanych nieznanym parametrem θ, wystarczającą statystyką jest funkcja T (X), której wartość zawiera wszystkie informacje potrzebne do obliczenia dowolnej oceny parametru.
Statystyka T (X) jest wystarczająca dla parametru bazowego θ właśnie wtedy, gdy rozkład prawdopodobieństwa warunkowego danych X, biorąc pod uwagę statystykę T (X), nie zależy od parametru θ.
(Wziąłem cytaty z wystarczającej statystyki )
Chociaż rozumiem drugie stwierdzenie i mogę użyć twierdzenia faktoryzacji, aby pokazać, czy dana statystyka jest wystarczająca, nie rozumiem, dlaczego statystyka z taką właściwością ma również właściwość, że „zawiera wszystkie informacje potrzebne do obliczenia dowolnej oszacowanie parametru ". Nie szukam formalnego dowodu, który pomógłby i tak udoskonalić moje zrozumienie, chciałbym uzyskać intuicyjne wyjaśnienie, dlaczego te dwa stwierdzenia są równoważne.
Podsumowując, moje pytania brzmią: dlaczego te dwa stwierdzenia są równoważne? Czy ktoś mógłby podać intuicyjne wyjaśnienie swojej równoważności?
źródło
Odpowiedzi:
Po komentarzach @whuber i @Kamster prawdopodobnie lepiej zrozumiałem. Kiedy mówimy, że wystarczająca statystyka zawiera wszystkie informacje potrzebne do obliczenia dowolnego oszacowania parametru, to tak naprawdę rozumiemy, że wystarczy obliczyć estymator maksymalnego prawdopodobieństwa (który jest funkcją wszystkich wystarczających statystyk).
Biorąc pod uwagę, że odpowiadam na własne pytanie i dlatego nie jestem w 100% pewien, że udzielę odpowiedzi, nie oznaczę jej jako poprawnej, dopóki nie otrzymam opinii. Dodaj komentarz i oddaj głos, jeśli uważasz, że się mylę / niedokładnie / itd ...
(Daj mi znać, jeśli nie jest to zgodne z etykietą SE, ponieważ jest to moje pierwsze pytanie, proszę o ułaskawienie, jeśli naruszam jakąkolwiek zasadę)
źródło
Studiując na temat wystarczalności, natknąłem się na twoje pytanie, ponieważ chciałem również zrozumieć intuicję dotyczącą tego, co zebrałem, to właśnie wymyśliłem (daj mi znać, co myślisz, jeśli popełniłem jakieś błędy itp.).
Niech będzie losową próbką z rozkładu Poissona ze średnią θ > 0 .X1,…,Xn θ>0
Wiemy, że jest wystarczającą statystyką dla θ , ponieważ rozkład warunkowy X 1 , … , X n dla T ( X ) jest wolny od θ , innymi słowy, nie zależy od θ .T(X)=∑ni=1Xi θ X1,…,Xn T(X) θ θ
Teraz statystyk wie, że X 1 , … , X n i . i . d ~ P O ı s s O n ( 4 ) i tworzy n = 400 przypadkowe wartości z tego rozkładu:A X1,…,Xn∼i.i.dPoisson(4) n=400
Dla wartości, które stworzył statystyk , bierze je sumę i pyta statystyki B.A B :
„Mam te przykładowe wartości wzięte z rozkładu Poissona. Wiedząc, że ∑ n i = 1 x i = y = 4068x1,…,xn ∑ni=1xi=y=4068 , co możesz mi powiedzieć o tym rozkładzie?”
Zatem sama wiedza o tym, że (oraz fakt, że próbka powstała z rozkładu Poissona) jest wystarczająca, aby statystyk B mógł powiedzieć cokolwiek na temat θ∑ni=1xi=y=4068 B θ ? Ponieważ wiemy, że jest to wystarczająca statystyka, wiemy, że odpowiedź brzmi „tak”.
Aby dowiedzieć się więcej na temat tego znaczenia, wykonaj następujące czynności (zaczerpnięte z „Wprowadzenie do statystyki matematycznej” Hogga & Mckeana i Craiga, wydanie siódme, ćwiczenie 7.1.9):
„ decyduje się stworzyć kilka fałszywych obserwacji, które nazywa z 1 , z 2 , … , z n (ponieważ wie, że prawdopodobnie nie będą one równe oryginalnym wartościom x ) w następujący sposób. Zauważa, że warunkowe prawdopodobieństwo niezależnego Poissona zmienne losowe Z 1 , Z 2 … , Z n równe z 1 , z 2 , … , z n , przy podanym ∑ z i = y , wynosiB z1,z2,…,zn x Z1,Z2…,Zn z1,z2,…,zn ∑zi=y
Tak stwierdza ćwiczenie. Zróbmy dokładnie to:
And let's see whatZ looks like (I'm also plotting the real density of Poisson(4) for k=0,1,…,13 - anything above 13 is pratically zero -, for comparison):
So, knowing nothing aboutθ and knowing only the sufficient statistic Y=∑Xi we were able to recriate a "distribution" that looks a lot like a Poisson(4) distribution (as n increases, the two curves become more similar).
Now, comparingX and Z|y :
We see that they are pretty similar, as well (as expected)
So, "for the purpose of making a statistical decision, we can ignore the individual random variablesXi and base the decision entirely on the Y=X1+X2+⋯+Xn " (Ash, R. "Statistical Inference: A concise course", page 59).
źródło
Let me give another perspective that may help. This is also qualitative, but there is a rigorous version of that particularly important in Information Theory - known as Markov property.
In the beginning, we have two objects, data (coming from a Random Variable, call it X) and parameter,θ (another rv, implicitly assumed since we are talking about its estimator). These two, are assumed to be dependent (otherwise, there is no point in trying to estimate one from the other). Now, the third object enters the game, Sufficient Statistic, T. The intuitive idea when we say T is enough to estimate θ really means that if we know T (ie conditioned on T), X provides no additional info, that is, X and θ are independent. In other word, knowledge of X is equivalent to knowledge of T as far as estimation of θ is concerned. Note that in probabilities are where all the uncertainties are captured, and hence "any estimate" when (conditional) probabilities are independent (eg conditional densities factorize).
źródło