Przybliżone statystyki zamówień dla normalnych zmiennych losowych

38

Czy są dobrze znane formuły dla statystyk porządkowych niektórych rozkładów losowych? W szczególności doceniono by statystyki pierwszego i ostatniego rzędu normalnej zmiennej losowej, ale bardziej ogólna odpowiedź.

Edycja: Aby to wyjaśnić, szukam formuł aproksymujących, które można mniej lub bardziej wyraźnie ocenić, a nie dokładnego wyrażenia całkowego.

Na przykład widziałem następujące dwa przybliżenia statystyki pierwszego rzędu (tj. Minimum) normalnego rv:

e1:nμn12n1σ

i

e1:nμ+Φ1(1n+1)σ

Pierwszy z nich, dla n=200 , daje w przybliżeniu e1:200μ10σ co wydaje się być bardzo luźno związane.

Drugi daje e1:200μ2.58σ podczas gdy szybki Monte Carlo daje e1:200μ2.75σ , więc nie jest to złe przybliżenie, ale też nie jest świetne, a co ważniejsze, nie mam intuicji na temat Skąd to pochodzi.

Jakaś pomoc?

Chris Taylor
źródło
4
Jeśli używasz R, zobacz funkcję ppoints .
kardynał
1
@probabilityislogic dał dobrą intuicję dla podanych przybliżeń. Czy w ogóle byłoby pomocne, gdybym dał trochę więcej z alternatywnego punktu widzenia, czy też zaspokoiłeś swoją ciekawość w tej sprawie?
kardynał

Odpowiedzi:

31

Klasycznym odniesieniem jest Royston (1982) [1], w którym algorytmy wykraczają poza jawne formuły. Cytuje również dobrze znaną formułę Blom (1958): przyα=0,375. Ta formuła daje mnożnik -2,73 dlan=200,r=1.E(r:n)μ+Φ1(rαn2α+1)σα=0.375n=200,r=1

[1]: Algorytm AS 177: oczekiwane normalne statystyki rzędu (dokładne i przybliżone) JP Royston. Journal of the Royal Statistics Society. Seria C (Statystyka stosowana) Vol. 31, nr 2 (1982), s. 161–165

Aniko
źródło
21

Rozkład statystyki i-tego rzędu dowolnego ciągłego losowego zmienna z plikiem PDF jest podawana przez rozkład związku „beta-F”. Intuicyjny sposób myślenia o tej dystrybucji, jest wzięcie pod uwagę statystykę zamówienia ith w próbie . Teraz, aby wartość statystyki i-tego rzędu zmiennej losowej była równa , potrzebujemy 3 warunków:X xNXx
  1. x F X ( x ) F X ( x ) = P r ( X < x )i1wartości poniżej , ma to prawdopodobieństwo dla każdej obserwacji, gdzie jest CDF zmiennej losowej X.xFX(x)FX(x)=Pr(X<x)
  2. x 1 - F X ( x )NiWartości powyżej , ma to prawdopodobieństwox1FX(x)
  3. 1 wartość w nieskończenie małym przedziale zawierającym , ma to prawdopodobieństwo gdzie wynosi plik PDF zmiennej losowejf X ( x ) d x f X ( x ) d x = d F X ( x ) = P r ( x < X < x + d x ) XxfX(x)dxfX(x)dx=dFX(x)=Pr(x<X<x+dx)X

Istnieją sposoby, aby dokonać tego wyboru, więc mamy:(N1)(N1i1)

fi(xi)=N!(i1)!(Ni)!fX(xi)[1FX(xi)]Ni[FX(xi)]i1dx

EDIT w moim oryginalnym poście podjąłem bardzo słabą próbę pójścia dalej od tego punktu, a poniższe komentarze odzwierciedlają to. Próbowałem to naprawić poniżej

Jeśli weźmiemy średnią wartość tego pliku pdf, otrzymujemy:

E(Xi)=xifi(xi)dxi

W tej całce dokonujemy następującej zmiany zmiennej (biorąc pod uwagę wskazówkę @ Henry'ego), a całka staje się:pi=FX(xi)

E(Xi)=01FX1(pi)Beta(pi|i,Ni+1)dpi=EBeta(pi|i,Ni+1)[FX1(pi)]

Jest to więc oczekiwana wartość odwrotnego CDF, którą można dobrze oszacować za pomocą metody delta, aby uzyskać:

EBeta(pi|i,Ni+1)[FX1(pi)]FX1[EBeta(pi|i,Ni+1)]=FX1[iN+1]

Aby dokonać lepszego przybliżenia, możemy rozwinąć do drugiego rzędu (pierwsze zróżnicowanie oznaczające), zwracając uwagę, że druga pochodna odwrotności to:

2a2FX1(a)=FX(FX1(a))[FX(FX1(a))]3=fX(FX1(a))[fX(FX1(a))]3

Niech . Następnie mamy:νi=FX1[iN+1]

EBeta(pi|i,Ni+1)[FX1(pi)]FX1[νi]VarBeta(pi|i,Ni+1)[pi]2fX(νi)[fX(νi)]3
=νi(iN+1)(1iN+1)2(N+2)fX(νi)[fX(νi)]3

Teraz, specjalizując się w normalnym przypadku, mamy

fX(x)=1σϕ(xμσ)fX(x)=xμσ3ϕ(xμσ)=xμσ2fX(x)
FX(x)=Φ(xμσ)FX1(x)=μ+σΦ1(x)

Zauważ, że Oczekiwanie to w przybliżeniu:fX(νi)=1σϕ[Φ1(iN+1)]

E[xi]μ+σΦ1(iN+1)+(iN+1)(1iN+1)2(N+2)σΦ1(iN+1)[ϕ[Φ1(iN+1)]]2

I w końcu:

E[xi]μ+σΦ1(iN+1)[1+(iN+1)(1iN+1)2(N+2)[ϕ[Φ1(iN+1)]]2]

Chociaż, jak zauważył @whuber, nie będzie to dokładne w ogonach. W rzeczywistości myślę, że może być gorzej z powodu skośności wersji beta o różnych parametrach

prawdopodobieństwo prawdopodobieństwa
źródło
1
„Estymator maksymalnego prawdopodobieństwa zmiennej losowej ”? Nie jestem pewien, co to jest, ale myślę, że (prawie) obliczyłeś tryb .
kardynał
1
W dwóch trzecich przypadków dzieje się coś tajemniczego, gdy nagle i pojawiają się bez ostrzeżenia lub definicji. μσ
whuber
2
Nie mam na myśli „nakładania”, ale trudno mi też zobaczyć, jak liczbę w nawiasach można aproksymować liczbą ujemną.
kardynał
1
@probabilityislogic, podczas gdy na poziomie rachunku różniczkowego można powiedzieć, że w tym przypadku rozważamy funkcję dwuwymiarową i po prostu maksymalizujemy jedną zmienną zamiast drugiej, myślę, że istnieją powody matematyczne, statystyczne i pedagogiczne, aby nie nazywać tego, co ty „dokonałem„ oszacowania maksymalnego prawdopodobieństwa ”. Jest ich zbyt wiele, by wymienić je w tej przestrzeni, ale prosty, który moim zdaniem jest wystarczająco przekonujący, polega na tym, że używamy określonego, tajemnego słownictwa w statystykach z jakiegoś powodu. Zmiana tego na kaprys jednego problemu może prowadzić do nieporozumień ... / ...
kard.
2
@probabilityislogic (+1) dla poprawionej odpowiedzi. Jedna sugestia może oznaczać , że jest lepszy niż co oznacza „implikuje”. Wpatrywanie się w kilka linii przez kilka sekund zdało sobie sprawę, że nie roszczycie sobie prawa do konwergencji.
kardynał
13

Odpowiedź Aniko opiera się na znanej formule Bloma, która obejmuje wybór . Okazuje się, że ta formuła sama w sobie jest jedynie przybliżeniem dokładnej odpowiedzi ze względu na G. Elfvinga (1947), Asymptotyczny rozkład zakresu w próbkach z normalnej populacji , Biometrika, tom. 34, s. 111–119. Formuła Elfvinga jest skierowana na minimum i maksimum próbki, dla której prawidłowy wybór alfa wynosi . Formuła Bloma powstaje, gdy przybliżymy o .α=3/8π/8π3

Używając formuły Elfvinga zamiast przybliżenia Bloma, otrzymujemy mnożnik -2,744165. Liczba ta jest bliższa dokładnej odpowiedzi Erika P. (-2,746) i przybliżeniu Monte Carlo (-2,75) niż przybliżeniu Bloma (-2,73), a jednocześnie jest łatwiejsza do wdrożenia niż dokładna formuła.

Hal M. Switkay
źródło
Czy możesz podać trochę więcej szczegółów na temat tego, w jaki sposób jest uzyskiwany przez Elfving (1947)? W artykule nie jest to oczywiste. α=π/8
Anthony
1
Anthony - Opieram się na podręczniku Statystyka matematyczna autorstwa Samuela Wilksa, pub. Wiley (1962). Ćwiczenie 8.21 na str. 249 stwierdza: „Jeśli x_ (1), x_ (n) to najmniejsze i największe statystyki rzędu próbki o wielkości n z ciągłego cdf F (x) ... zmienna losowa 2n * sqrt {[F (x_ ( 1))] [1-F (x_ (n))]} ma rozkład graniczny jako n -> nieskończoność, ze średnią pi / 2 i wariancją 4- (pi ^ 2) / 4. ” (Przepraszam, nie znam kodu znaczników!) Dla rozkładu symetrycznego F (x_ (1)) = 1-F (x_ (n)). Zatem F (x_ (n)) wynosi około pi / (4n) lub x_ (n) wynosi około F ^ (- 1) (pi / (4n)). Wzór Blom wykorzystuje przybliżenie 3 / (4n).
Hal M. Switkay
Przypomina mi to niesławny rachunek „ ” przypisany ustawodawcy stanu Indiana. (Chociaż artykuł w Wikipedii sugeruje, że popularna wersja tej historii nie jest dokładna.)π=3
steveo'america
7

W zależności od tego, co chcesz zrobić, ta odpowiedź może, ale nie musi pomóc - otrzymałem następującą dokładną formułę z pakietu statystyk Maple .

with(Statistics):
X := OrderStatistic(Normal(0, 1), 1, n):
m := Mean(X):
m;

1/2_t0n!2e1/2_t02(1/21/2erf(1/2_t02))1+n(1+n)!πd_t0

Samo w sobie nie jest to bardzo przydatne (i prawdopodobnie można je dość łatwo wyprowadzić ręcznie, ponieważ jest to minimum zmiennych losowych), ale pozwala na szybkie i bardzo dokładne przybliżenie dla danych wartości - znacznie dokładniejsze niż Monte Carlo:nn

evalf(eval(m, n = 200));
evalf[25](eval(m, n = 200));

daje odpowiednio -2,746042447 i -2,746042447451154492412344.

(Pełne ujawnienie - utrzymuję ten pakiet.)

Erik P.
źródło
1
@ProbabilityIsLogic wyprowadził tę całkę dla wszystkich statystyk zamówień w pierwszej połowie swojej odpowiedzi.
whuber