Który jest największy z grupy normalnie rozmieszczonych zmiennych losowych?

14

Mam zmienne losowe . X 0 ma rozkład normalny ze średnią μ > 0 i wariancją 1 . Wartości X 1 , , X n rv są zwykle rozkładane ze średnią 0 i wariancją 1X0,X1,,XnX0μ>01X1,,Xn01 . Wszystko jest od siebie niezależne.

Niech oznacza zdarzenie, w którym X 0 jest największym z nich, tj. X 0 > max ( X 1 , , X n ) . Chcę obliczyć lub oszacować Pr [ E ] . Szukam wyrażenia dla Pr [ E ] , w funkcji μ , nEX0X0>max(X1,,Xn)Pr[E]Pr[E]μ,n lub rozsądnego oszacowania lub przybliżenia dla .Pr[E]

W mojej aplikacji jest stałe ( ) i chcę znaleźć najmniejszą wartość dla która sprawia, żen = 61 μ Pr [ E ] 0,99nn=61μPr[E]0.99 , ale ciekawi mnie również ogólne pytanie.

DW
źródło
Jak duży jest ? Powinny istnieć dobre wyrażenia asymptotyczne oparte na teorii dużej próby. n
whuber
@ whuber, dzięki! Zredagowałem pytanie: w moim przypadku . Nawet jeśli nie jest wystarczająco duże, aby liczyć się jako duże, jeśli istnieją dobre asymptotyczne szacunki w przypadku, gdy jest duże, byłoby to interesujące. n = 61 nn=61n=61n
DW
5
Korzystając z integracji numerycznej, . μ4.91912496
whuber

Odpowiedzi:

14

Obliczenia takich prawdopodobieństw zostały dogłębnie zbadane przez inżynierów komunikacyjnych pod nazwą -ary ortogonalna sygnalizacja, gdzie model jest taki, że jeden z równej energii jest wysyłany równie prawdopodobne sygnały ortogonalne, a odbiornik próbuje zdecydować, który z nich jest transmitowany, badając wyjścia filtrów dopasowanych do sygnałów. Uwarunkowane tożsamością transmitowanego sygnału, wyjściowe próbki dopasowanych filtrów są (warunkowo) niezależnymi zmiennymi losowymi normalnymi zmiennymi jednostkowymi. Wyjściowa próbka filtra dopasowana do przesyłanego sygnału jest losową zmienną podczas gdy wyjściowe wartości wszystkich pozostałych filtrów toMMMMN ( 0 , 1 )N(μ,1)N(0,1) zmienne losowe.

Warunkowego prawdopodobieństwo prawidłowej decyzji (co w tym kontekście jest zdarzenie ) uwarunkowany jest P ( C | X 0 = α ) = n Π i = 1 P { X i < α X 0 = α } = [ Φ ( α ) ] n gdzie Φ ( ) X 0 = αC={X0>maxiXi}X0=α

P(CX0=α)=i=1nP{Xi<αX0=α}=[Φ(α)]n
Φ()jest skumulowanym rozkładem prawdopodobieństwa standardowej normalnej zmiennej losowej, a zatem bezwarunkowe prawdopodobieństwo wynosi gdzie ϕ ( ) jest standardową funkcją gęstości normalnej. Nie ma wyrażenia w postaci zamkniętej dla wartości tej całki, którą należy oceniać liczbowo. Inżynierowie są również zainteresowani zdarzeniem uzupełniającym - że decyzja jest błędna - ale nie lubią tego obliczać jako P { X 0 < max i X i } = P ( E ) = 1 - P ( C ), ponieważ to wymaga bardzo starannej oceny całki dla P ( C )
P(C)=P(CX0=α)ϕ(αμ)dα=[Φ(α)]nϕ(αμ)dα
ϕ()
P{X0<maxiXi}=P(E)=1P(C)
P(C) z dokładnością do wielu cyfr znaczących, a taka ocena jest zarówno trudna, jak i czasochłonna. Zamiast tego całka dla może być całkowana przez części, aby uzyskać P { X 0 < max i X i } = - n [ Φ ( α ) ] n - 1 ϕ ( α ) Φ ( α - μ )1P(C) Całka ta jest łatwiejsza do oszacowania numerycznego, a jej wartość w funkcji μ jest wykreślona i zestawiona w tabelach (choć niestety tylko dla n 20 ) w rozdziale 5Inżynierii systemów telekomunikacyjnychLindsey i Simon, Prentice-Hall 1973, Dover Press 1991 Alternatywnie, inżynierowie używajązwiązku związanegolub nierówności Bonferroniego P { X 0 < max i X i }
P{X0<maxiXi}=n[Φ(α)]n1ϕ(α)Φ(αμ)dα.
μn20 gdzieQ(x)=1-Φ
P{X0<maxiXi}=P{(X0<X1)(X0<X2)(X0<Xn)}i=1nP{X0<Xi}=nQ(μ2)
jest uzupełniającą funkcją skumulowanego rozkładu normalnego.Q(x)=1Φ(x)

Z granicy związku widzimy, że pożądana wartość dla P { X 0 < max i X i } jest ograniczona powyżej o 60 Q ( μ / 0.01P{X0<maxiXi}60Q(μ/2)0.01μ=5.09μ=4.919

M

Dilip Sarwate
źródło
4

Formalna odpowiedź:

Rozkład prawdopodobieństwa (gęstość) dla maksimum zmiennych iid wynosi: p N ( x )NpN(x)=Np(x)ΦN1(x)pΦ jest funkcją rozkładu skumulowanego.

X0N1P(E)=(N1)yp(x0)p(y)ΦN2(y)dx0dy

Konieczne może być przeanalizowanie różnych przybliżeń, aby w sposób praktyczny poradzić sobie z tym w przypadku konkretnego zastosowania.

Dave
źródło
6
+1 W rzeczywistości podwójna całka upraszcza się w jedną całkę od tego czasu dając P ( E ) = 1 - ( N - 1 ) - Φ
yp(x0)dx0=1Φ(yμ)
P(E)=1(N1)ΦN2(y)p(y)Φ(yμ)dy