Konstruowanie przykładu pokazującego

12

Jak skonstruować przykład rozkładu prawdopodobieństwa, dla którego , przy założeniu, że ?E(1X)=1E(X)P(X0)=1

Nierówność wynikająca z nierówności Jensena dla RV o dodatniej wartości jest jak (odwrotna nierówność, jeśli ). Wynika to z faktu, że mapowanie jest wypukłe dla i wklęsłe dla . Zgodnie z warunkiem równości w nierówności Jensena, sądzę, że rozkład musi być zdegenerowany, aby wymagana równość mogła się utrzymać. Trywialny przypadek, w którym zachowuje się równość, to oczywiście, jeśli ae Oto przykład, który znalazłem w książce problemowej: Rozważ dyskretną zmienną losową taką, żeXE(1X)1E(X)X<0x1xx>0x<0X=1XP(X=1)=19,P(X=12)=P(X=2)=49 E(1 . Następnie łatwo jest sprawdzić, czy .E(1X)=1E(X)=1

Ten przykład pokazuje, że nie musi być dodatni (lub ujemny) ae, aby zachować równość w tytule. Rozkład tutaj również nie jest zdegenerowany.X

Jak skonstruować przykład, prawdopodobnie taki jak ten, który znalazłem w książce? Czy jest jakaś motywacja?

UpartyAtom
źródło
Twój przykład dotyczy dowolnej zmiennej losowej, która jest niezerową stałą. Również twój drugi przykład nie jest zdegenerowany.
Michael R. Chernick
3
Nierówność nie wynika z nierówności Jensena bez dalszego przypuszczenia, że jest prawie na pewno dodatnia. X
whuber
@MichaelChernick Nie sugerowałem, że mówię, że przykład miał rozkład zdegenerowany.
StubbornAtom
Miałem na myśli twoje stwierdzenie: „Zgodnie z warunkiem równości w nierówności Jensena, sądzę, że rozkład musi być zdegenerowany, aby wymagana równość mogła się utrzymać”. A jednak pokazałeś nie-generatywny przykład.
Michael R. Chernick
1
@ whuber Chcę po prostu wiedzieć, jak znaleźć przykład, w którym równość w tytule jest prawdziwa.
StubbornAtom

Odpowiedzi:

18

Stwórzmy wszystkie możliwe przykłady zmiennych losowych dla których E [ X ] E [ 1 / X ] = 1 . Następnie pośród nich możemy zastosować heurystykę, aby uzyskać najprostszy możliwy przykład. Te heurystyki polegają na podaniu najprostszych możliwych wartości dla wszystkich wyrażeń, które wypadają ze wstępnej analizy. Okazuje się, że jest to podręcznikowy przykład.XE[X]E[1/X]=1

Wstępna analiza

Wymaga to tylko odrobiny analizy opartej na definicjach. Rozwiązanie ma jedynie drugorzędne znaczenie: głównym celem jest wypracowanie spostrzeżeń, które pomogą nam intuicyjnie zrozumieć wyniki.

Najpierw zauważ, że nierówność Jensena (lub nierówność Cauchy'ego-Schwarza) implikuje, że dla dodatniej zmiennej losowej , E [ X ] E [ 1 / X ] 1 , z równością utrzymującą się wtedy i tylko wtedy, gdy X jest „zdegenerowany”: to znaczy , X jest prawie na pewno stały. Kiedy X jest ujemną zmienną losową, - X jest dodatnia, a poprzedni wynik jest zachowany z odwróconym znakiem nierówności. W związku z tym każdy przykład, w którym E [ 1 / X ] = 1 / EXE[X]E[1/X]1XXXX musi mieć dodatnie prawdopodobieństwo bycia ujemnym i dodatnie prawdopodobieństwo bycia dodatnim.E[1/X]=1/E[X]

Wgląd tutaj jest taki, że każdy z E [ X ] E [ 1 / X ] = 1 musi w jakiś sposób „równoważyć” nierówność od jej części dodatniej do nierówności w przeciwnym kierunku od części ujemnej. Z czasem stanie się to wyraźniejsze.XE[X]E[1/X]=1

Rozważmy dowolną niezerową zmienną losową . Pierwszym krokiem w formułowaniu definicji oczekiwania (przynajmniej wtedy, gdy odbywa się to w pełnej ogólności przy użyciu teorii miary), jest dekompozycja X na części dodatnią i ujemną, z których obie są dodatnimi zmiennymi losowymi:XX

Y=Positive part(X)=max(0,X);Z=Negative part(X)=min(0,X).

Załóżmy, że w jako mieszaniny z Y z masą p i - Z o masie 1 - s , gdzie s = Pr ( X > 0 ) , 1 - P = Pr ( X < 0 ) . Oczywiście 0 < p < 1. Umożliwi nam to zapisanie oczekiwań X i 1 / XXYpZ1p

p=Pr(X>0), 1p=Pr(X<0).
0<p<1.
X1/Xpod względem oczekiwań pozytywnych zmiennych i Z .YZ

Aby nieco uprościć nadchodzącą algebrę, zwróć uwagę, że równomierne przeskalowanie o liczbę σ nie zmienia E [ X ] E [ 1 / X ] - ale pomnoża E [ Y ] i E [ Z ] każdy przez σ . Dla pozytywnej Ď , to po prostu wynosi wyboru jednostek pomiaru X . Ujemny σ przełącza role Y i Z . Wybór znaku σXσE[X]E[1/X]E[Y]E[Z]σσXσYZσodpowiednio możemy zatem przypuszczać, że

(1)E[Z]=1 and E[Y]E[Z].

Notacja

To wszystko dla wstępnych uproszczeń. Aby stworzyć ładny zapis, napiszmy więc

μ=E[Y]; ν=E[1/Y]; λ=E[1/Z]

dla trzech oczekiwań, których nie możemy kontrolować. Wszystkie trzy ilości są dodatnie. Jak twierdzi nierówność Jensena

(2)μν1 and λ1.

Prawo całkowitego prawdopodobieństwa wyraża oczekiwania i 1 / X w odniesieniu do nazwanych przez nas wielkości:X1/X

E[X]=E[XX>0]Pr(X>0)+E[XX<0]Pr(X<0)=μp(1p)=(μ+1)p1

a ponieważ ma taki sam znak jak X ,1/XX

E[1X]=E[1XX>0]Pr(X>0)+E[1XX<0]Pr(X<0)=νpλ(1p)=(ν+λ)pλ.

Zrównanie iloczynu tych dwóch wyrażeń z zapewnia istotny związek między zmiennymi:1

(*)1=E[X]E[1X]=((μ+1)p1)((ν+λ)pλ).

Przeformułowanie problemu

Załóżmy, że części - Y i Z --are żadnych pozytywnych zmiennych losowych (zdegenerowanych lub nie). Który określa | j , v , a X . Kiedy możemy znaleźć p , gdzie 0 < p < 1 , dla którego ( ) jest ważne?XYZμ,ν,λp0<p<1()

To wyraźnie artykułuje „równoważenia” wgląd wcześniej wspomniano tylko ogólnikowo: mamy zamiar trzymać i Z stałe i nadzieją, aby znaleźć wartość p , który odpowiednio równoważy ich względne składek na X . Chociaż to nie jest od razu oczywiste, że taki p potrzeba istnieje, co jest oczywiste, że to zależy tylko na chwile E [ Y ] , E [ 1 / Y ] , E [ Z ] i E [ 1 / Z ]YZpXpE[Y]E[1/Y]E[Z]E[1/Z]. Problem zostaje w ten sposób zredukowany do stosunkowo prostej algebry - cała analiza zmiennych losowych została zakończona.

Rozwiązanie

Ten problem algebraiczny nie jest zbyt trudny do rozwiązania, ponieważ jest w najgorszym przypadku równaniem kwadratowym dla p, a rządzące nierównościami ( 1 ) i ( 2 ) są stosunkowo proste. Rzeczywiście, ( ) mówi nam, że iloczyn jego pierwiastków p 1 i p 2 jest()p(1)(2)()p1p2

p1p2=(λ1)1(μ+1)(ν+λ)0

a suma wynosi

p1+p2=(2λ+λμ+ν)1(μ+1)(ν+λ)>0.

Dlatego oba korzenie muszą być pozytywne. Ponadto ich średnia jest mniejsza niż , ponieważ1

1(p1+p2)2=λμ+ν+2μν2(μ+1)(ν+λ)>0.

(Wykonując trochę algebry, nie jest trudno wykazać, że większy z dwóch pierwiastków również nie przekracza ).1

Twierdzenie

Oto, co znaleźliśmy:

Biorąc pod uwagę dowolne dwie dodatnie zmienne losowe i Z (przynajmniej jedna z nich nie jest generowana), dla których istnieją E [ Y ] , E [ 1 / Y ] , E [ Z ] i E [ 1 / Z ] i są skończone. Następnie istnieje jedna lub dwie wartości p , gdzie 0 < p < 1 , które określają zmienną mieszanki X o wadze p dla YYZE[Y]E[1/Y]E[Z]E[1/Z]p0<p<1XpYi waga dla - Z i dla których E [ X ] E [ 1 / X ] = 1 . Każde takie wystąpienie losowej zmiennej X z E [ X ] E [ 1 / X ] = 1 ma tę postać.1pZE[X]E[1/X]=1XE[X]E[1/X]=1

To daje nam naprawdę bogaty zestaw przykładów!


Konstruowanie najprostszego możliwego przykładu

Po scharakteryzowaniu wszystkich przykładów, przystąpmy do budowy takiego, który jest tak prosty, jak to możliwe.

  • Dla części ujemnej wybierzmy zmienną zdegenerowanąZ - najprostszy rodzaj zmiennej losowej. Zostanie przeskalowany do wartości , skąd λ = 1 . Rozwiązanie ( ) obejmuje p 1 = 0 , redukując go do łatwego do rozwiązania równania liniowego: jedynym dodatnim pierwiastkiem jest1λ=1()p1=0

    (3)p=11+μ+11+ν.
  • Dla części dodatniej nie otrzymujemy nic użytecznego, jeśli Y jest zdegenerowane, więc dajmy temu pewne prawdopodobieństwo przy tylko dwóch różnych dodatnich wartościach a < b , powiedzmy Pr ( X = b ) = q . YYa<bPr(X=b)=q W tym przypadku podaje się definicja oczekiwań

    μ=E[Y]=(1q)a+qb; ν=E[1/Y]=(1q)/a+q/b.
  • Aby to jeszcze prostsze wykonania, załóżmy, aby i 1 / Y identyczne:Y1/Y Zmusza i = 1 / b . Terazq=1q=1/2a=1/b

    μ=ν=b+1/b2.

    Rozwiązanie upraszcza(3)

    p=21+μ=42+b+1/b.
  • Jak możemy sprawić, by były to proste liczby? Od i a , b = 1 , muszą b > 1 . Wybierzmy najprostszą liczbę większą niż 1 dla b ; mianowicie b = 2 . Wydajności powyższym wzorem P = 4 / ( 2 + 2 + 1 / 2 ) = 8 / 9 i naszym kandydatem do najprostszy przykład w związku z czyma<bab=1b>11bb=2p=4/(2+2+1/2)=8/9

    Pr(X=2)=Pr(X=b)=Pr(Y=b)p=qp=1289=49;Pr(X=1/2)=Pr(X=a)=Pr(Y=a)p=qp==49;Pr(X=1)=Pr(Z=1)(1p)=1p=19.

To jest właśnie ten przykład oferowany w podręczniku.

Whuber
źródło
2
Niezła odpowiedź. Pomimo mojego początkowego sceptycyzmu łatwo jest znaleźć przykład z odrębnymi rozwiązaniami . p(0,1)
P.Windridge
8

Jak wspomniałeś, jeśli jest dodatni, wówczas E ( 1 / X ) = 1 / E ( X ) występuje tylko wtedy, gdy X jest prawie na pewno stały. W przeciwnym razie potrzebujesz X, aby przyjąć zarówno wartości ujemne, jak i dodatnie.XE(1/X)=1/E(X)XX

Aby skonstruować taki przykład, najpierw przejdź tak prosto, jak to możliwe. Załóżmy trwa dwie wartości, a i b , z prawdopodobieństw p i 1 - P r. Następnie E ( X ) = a p + b ( 1 - p ) i E ( 1 / X ) = 1Xabp1p

E(X)=ap+b(1p)
Aby1/E(X)=E(1/X),to wymaga sięp+b(1-p)=1
E(1/X)=1ap+1b(1p).
1/E(X)=E(1/X) co przestawia się na wymaganie (a-b)2p(1-p)=0. Oznacza to, że jedyne możliwe rozwiązanie musi mieć alboa=b, albop=0lubp=1. We wszystkich przypadkach wracamy do przypadku zdegenerowanego:Xjest stały.
ap+b(1p)=11ap+1b(1p)
(ab)2p(1p)=0.
a=bp=0p=1X

X1/XX11a1/aaP(X=a)=P(X=1/a)=pP(X=1)=12p

(1)E(1/X)=E(X)=(a+1a)p(12p)=(2+a+1a)p1.
1/E(X)=E(1/X)E(X)=1E(X)=11p=0E(X)=1
(2)(2+a+1a)p=2p=22+a+1a=2a(a+1)2.
aa=2a=1
grand_chat
źródło
1
XE[1/X]=1/E[X]Xh(x)=1/x
@ P.Windridge Masz rację! Naprawiony.
grand_chat