Jednolita zmienna losowa jako suma dwóch zmiennych losowych

18

Zaczerpnięte z Grimmet i Stirzaker :

Pokaż, że nie może być tak, że U=X+Y gdzie U jest równomiernie rozmieszczone na [0,1], a X i Y są niezależne i identycznie rozmieszczone. Nie należy zakładać, że X i Y są zmiennymi ciągłymi.

Prosty dowód sprzeczności jest wystarczający dla przypadku, gdy X , Y są przyjmowane dyskretnie, argumentując, że zawsze można znaleźć u i u takie, że P(Uu+u)P(Uu) podczas gdy P(X+Yu)=P(X+Yu+u) .

Jednak ten dowód nie rozciąga się na X,Y jest absolutnie ciągłe lub pojedynczo ciągłe. Wskazówki / komentarze / krytyka?

prawoskrętny
źródło
3
Wskazówka : charakterystyczne funkcje są twoimi przyjaciółmi.
kardynał
1
X i Y są identyczne, więc ich charakterystyczne funkcje muszą być identyczne. Musisz jednak użyć funkcji charakterystycznej, a nie funkcji generującej moment - nie ma gwarancji, że mgf istnieje dla X, więc pokazanie mgf ma niemożliwą właściwość nie oznacza, że ​​nie ma takiego X. Wszystkie RV mają funkcję charakterystyczną, więc jeśli wykażesz, że ma niemożliwą właściwość, nie ma takiego X.
Silverfish,
1
Jeśli rozkłady X i Y mają jakiekolwiek atomy , powiedzmy, że P{X=a}=P{Y=a}=b>0 , to P{X+Y=2a}b2>0 a więc X+Y nie może być równomiernie rozłożone na [0,1] . Dlatego nie trzeba rozważać przypadku rozkładów X i Y zawierających atomy.
Dilip Sarwate

Odpowiedzi:

13

Wynik można udowodnić za pomocą obrazu: widoczne szare obszary pokazują, że rozkład równomierny nie może zostać rozłożony jako suma dwóch niezależnych zmiennych o identycznym rozkładzie.

Notacja

Niech i Y będą takie, że X + Y ma równomierny rozkład na [ 0 , 1 ] . Oznacza to, że dla wszystkich 0 a b 1 ,XYX+Y[0,1]0ab1

Pr(a<X+Yb)=ba.

Zasadniczą wsparcie wspólnego podziału i Y w związku z tym jest [ 0 , 1 / 2 ] (w przeciwnym wypadku nie będzie dodatni prawdopodobieństwo, że X + Y leży poza [ 0 , 1 ] ).XY[0,1/2]X+Y[0,1]

Zdjęcie

Niech . Rozważ ten diagram pokazujący, jak obliczane są sumy zmiennych losowych:0<ϵ<1/4

Postać

Podstawowym rozkładem prawdopodobieństwa jest łączny dla . Prawdopodobieństwo dowolnego zdarzenia a < X + Y b jest podane przez całkowite prawdopodobieństwo pokryte przekątnym pasmem rozciągającym się między liniami x + y = a i x + y = b . Pokazane są trzy takie pasma: od 0 do ϵ , pojawiające się jako mały niebieski trójkąt w lewym dolnym rogu; od 1 / 2 - ε do 1 / 2(X,Y)a<X+Ybx+y=ax+y=b0ϵ1/2ϵ 1 , pojawiające się jako mały czerwony trójkąt w prawym górnym rogu.1/2+ϵ, pokazany jako szary prostokąt zakończony dwoma (żółtymi i zielonymi) trójkątami; i od do1ϵ1

Co pokazuje obrazek

Porównując lewy dolny trójkąt na rysunku z lewym dolnym kwadratem zawierającym go i wykorzystując założenie iid dla i YXY , jasne jest, że

ϵ=Pr(X+Yϵ)<Pr(Xϵ)Pr(Yϵ)=Pr(Xϵ)2.

Zauważ, że nierówność jest ścisła: równość nie jest możliwa, ponieważ istnieje pewne pozytywne prawdopodobieństwo, że zarówno jak i Y są mniejsze niż ϵ, ale mimo to X + Y > ϵXYϵX+Y>ϵ .

Podobnie, porównując czerwony trójkąt z kwadratem w prawym górnym rogu,

ϵ=Pr(X+Y>1ϵ)<Pr(X>1/2ϵ)2.

Wreszcie porównanie dwóch przeciwnych trójkątów w lewym górnym i prawym dolnym rogu z pasmem ukośnym, który je zawiera, daje kolejną surową nierówność

2ϵ<2Pr(Xϵ)Pr(X>1/2ϵ)<Pr(1/2ϵ<X+Y1/2+ϵ)=2ϵ.

Pierwsze Ensues nierówności z poprzednich dwóch (wziąć ich pierwiastkowania i pomnożyć je), podczas gdy drugi opisuje (ścisła) włączenie trójkątów w zespole i ostatnia równość wyraża równomierność . Wniosek, że 2 ϵ < 2 ϵ jest sprzecznością dowodzącą, że X i Y nie mogą istnieć, QED .X+Y2ϵ<2ϵXY

whuber
źródło
3
(+1) Podoba mi się to podejście. Po odzyskaniu koperty z kosza na śmieci widzę, że narysowałem ten sam schemat, tyle że nie zaznaczyłem żółtych i zielonych trójkątów wewnątrz paska. Otrzymałem nierówności dla niebieskich i czerwonych trójkątów. Bawiłem się z nimi i kilkoma innymi prawdopodobieństwami, ale nigdy nie myślałem o zbadaniu prawdopodobieństwa paska, który okazał się krytycznym krokiem. Zastanawiam się, jaki proces myślowy mógł zmotywować ten wgląd?
Silverfish,
W rzeczywistości, gdzie @ whuber ma żółte i zielone trójkąty, rysowałem na kwadratach (skutecznie rozkładałem na siatkę). Patrząc na etapie, który "opisuje (surowe) włączenie trójkątów w paśmie", 2 Pr ( X ε ) Pr ( X > 1 / 2 - ε ) < Pr ( 1 / 2 - ε < X + Y 1 / 2 + ε )[0,0.5]22Pr(Xϵ)Pr(X>1/2ϵ)<Pr(1/2ϵ<X+Y1/2+ϵ), Zastanawiam się, czy byłoby to geometrycznie bardziej naturalne z kwadratami pokrywającymi pasmo niż trójkąty?
Silverfish,
1
@Silver przypomniano mi o analizie sum równomiernych rozkładów, które zamieściłem kilka lat temu. To sugerowało wizualizację geometryczną sumy Jest natychmiast oczywiste, że wiele prawdopodobieństwa musiał być skoncentrowane w pobliżu naroży ( 0 , 0 ) i ( 1 / 2 , 1 / 2 ) , aby suma być jednolite i stosunkowo mało prawdopodobne, aby znajdować się w pobliżu środkowego Diagonal X + Y = 1 / 2 . Doprowadziło to do schematu, który opracowałem w Mathematica.X+Y(0,0)(1/2,1/2)X+Y=1/2W tym momencie odpowiedź napisała sama. Tak, używanie kwadratów w środkowym paśmie może być fajniejsze.
whuber
Thanks! "Note that the inequality is strict: equality is not possible because there is some positive probability that either of X or Y is less than ϵ but nevertheless X+Y>ϵ." I'm not sure I follow this. It seems to me the aim here is to show Pr(X+Yϵ)<Pr(XϵYϵ), doesn't this require a positive probability for some event A in which both of X and Y are less than or equal to ϵ and yet X+Y>ϵ? It is the "either of" vs "both of" I'm vacillating over.
Silverfish
@Silverfish Thank you; I did not express that as I had intended. You are correct: the language is intended essentially to describe the portion of a little square not inside the triangle.
whuber
10

I tried finding a proof without considering characteristic functions. Excess kurtosis does the trick. Here's the two-line answer: Kurt(U)=Kurt(X+Y)=Kurt(X)/2 since X and Y are iid. Then Kurt(U)=1.2 implies Kurt(X)=2.4 which is a contradiction as Kurt(X)2 for any random variable.

Rather more interesting is the line of reasoning that got me to that point. X (and Y) must be bounded between 0 and 0.5 - that much is obvious, but helpfully means that its moments and central moments exist. Let's start by considering the mean and variance: E(U)=0.5 and Var(U)=112. If X and Y are identically distributed then we have:

E(X+Y)=E(X)+E(Y)=2E(X)=0.5

So E(X)=0.25. For the variance we additionally need to use independence to apply:

Var(X+Y)=Var(X)+Var(Y)=2Var(X)=112

Hence Var(X)=124 and σX=1260.204. Wow! That is a lot of variation for a random variable whose support ranges from 0 to 0.5. But we should have expected that, since the standard deviation isn't going to scale in the same way that the mean did.

Now, what's the largest standard deviation that a random variable can have if the smallest value it can take is 0, the largest value it can take is 0.5, and the mean is 0.25? Collecting all the probability at two point masses on the extremes, 0.25 away from the mean, would clearly give a standard deviation of 0.25. So our σX is large but not impossible. (I hoped to show that this implied too much probability lay in the tails for X+Y to be uniform, but I couldn't get anywhere with that on the back of an envelope.)

Second moment considerations almost put an impossible constraint on X so let's consider higher moments. What about Pearson's moment coefficient of skewness, γ1=E(XμX)3σX3=κ3κ23/2? This exists since the central moments exist and σX0. It is helpful to know some properties of the cumulants, in particular applying independence and then identical distribution gives:

κi(U)=κi(X+Y)=κi(X)+κi(Y)=2κi(X)

This additivity property is precisely the generalisation of how we dealt with the mean and variance above - indeed, the first and second cumulants are just κ1=μ and κ2=σ2.

Then κ3(U)=2κ3(X) and (κ2(U))3/2=(2κ2(X))3/2=23/2(κ2(X))3/2. The fraction for γ1 cancels to yield Skew(U)=Skew(X+Y)=Skew(X)/2. Since the uniform distribution has zero skewness, so does X, but I can't see how a contradiction arises from this restriction.

So instead, let's try the excess kurtosis, γ2=κ4κ22=E(XμX)4σX43. By a similar argument (this question is self-study, so try it!), we can show this exists and obeys:

Kurt(U)=Kurt(X+Y)=Kurt(X)/2

The uniform distribution has excess kurtosis 1.2 so we require X to have excess kurtosis 2.4. But the smallest possible excess kurtosis is 2, which is achieved by the Binomial(1,12) Bernoulli distribution.

Silverfish
źródło
2
(+1) This is a quite clever approach, which was new to me. Thanks. Note that some of your analysis could have been streamlined by considering a uniform centered at zero. (The equivalence of the problem is immediate.) That would have immediately told you that considering skew was a dead-end.
cardinal
@cardinal: I knew the skew was a dead-end before I worked on it. The purpose was expository: it's a self-study question so I didn't want to solve it in full! Rather I wanted to leave a hint on how to deal with the next level up...
Silverfish
@cardinal: I was in two minds whether to center or not. I did back-of-envelope calculations more conveniently, but in the final analysis we just need (1) a simple case of the general result that Kurt(X1+...+Xn)=1nKurt(X) for iid Xi, (2) that Kurt(U)=1.2 for any uniform distribution, and (3) Kurt(X) exists since X is bounded and σX0 (which is trivial, else σU=0). So none of the key results actually required centering, though bits may have looked less ugly!
Silverfish
Yes, the word "streamlined" was carefully chosen. :-) I did not intend my comment to be read as criticism of your exposition. Cheers.
cardinal
@cardinal Incidentally, variance considerations alone almost worked, but the uniform isn't quite spread out enough. With a bit more probability mass nearer the extremes, e.g. fT(t)=12t2 on [-0.5, 0.5], then Var(T)=.15 and if T=X1+X2 then σX=.15/20.27>0.25 which is impossible as X is bounded by -0.25 and 0.25. Of course, you will see immediately how this relates to the present example! I wonder if the approach generalises, I'm sure other bounded RVs can't be decomposed into sums but require even higher moments investigated to find the contradiction.
Silverfish