Zaczerpnięte z Grimmet i Stirzaker :
Pokaż, że nie może być tak, że gdzie jest równomiernie rozmieszczone na [0,1], a i są niezależne i identycznie rozmieszczone. Nie należy zakładać, że X i Y są zmiennymi ciągłymi.
Prosty dowód sprzeczności jest wystarczający dla przypadku, gdy , są przyjmowane dyskretnie, argumentując, że zawsze można znaleźć i takie, że podczas gdy .
Jednak ten dowód nie rozciąga się na jest absolutnie ciągłe lub pojedynczo ciągłe. Wskazówki / komentarze / krytyka?
probability
random-variable
continuous-data
uniform
proof
prawoskrętny
źródło
źródło
Odpowiedzi:
Wynik można udowodnić za pomocą obrazu: widoczne szare obszary pokazują, że rozkład równomierny nie może zostać rozłożony jako suma dwóch niezależnych zmiennych o identycznym rozkładzie.
Notacja
Niech i Y będą takie, że X + Y ma równomierny rozkład na [ 0 , 1 ] . Oznacza to, że dla wszystkich 0 ≤ a ≤ b ≤ 1 ,X Y X+Y [0,1] 0≤a≤b≤1
Zasadniczą wsparcie wspólnego podziału i Y w związku z tym jest [ 0 , 1 / 2 ] (w przeciwnym wypadku nie będzie dodatni prawdopodobieństwo, że X + Y leży poza [ 0 , 1 ] ).X Y [0,1/2] X+Y [0,1]
Zdjęcie
Niech . Rozważ ten diagram pokazujący, jak obliczane są sumy zmiennych losowych:0<ϵ<1/4
Podstawowym rozkładem prawdopodobieństwa jest łączny dla . Prawdopodobieństwo dowolnego zdarzenia a < X + Y ≤ b jest podane przez całkowite prawdopodobieństwo pokryte przekątnym pasmem rozciągającym się między liniami x + y = a i x + y = b . Pokazane są trzy takie pasma: od 0 do ϵ , pojawiające się jako mały niebieski trójkąt w lewym dolnym rogu; od 1 / 2 - ε do 1 / 2(X,Y) a<X+Y≤b x+y=a x+y=b 0 ϵ 1/2−ϵ 1 , pojawiające się jako mały czerwony trójkąt w prawym górnym rogu.1/2+ϵ , pokazany jako szary prostokąt zakończony dwoma (żółtymi i zielonymi) trójkątami; i od do1−ϵ 1
Co pokazuje obrazek
Porównując lewy dolny trójkąt na rysunku z lewym dolnym kwadratem zawierającym go i wykorzystując założenie iid dla i YX Y , jasne jest, że
Zauważ, że nierówność jest ścisła: równość nie jest możliwa, ponieważ istnieje pewne pozytywne prawdopodobieństwo, że zarówno jak i Y są mniejsze niż ϵ, ale mimo to X + Y > ϵX Y ϵ X+Y>ϵ .
Podobnie, porównując czerwony trójkąt z kwadratem w prawym górnym rogu,
Wreszcie porównanie dwóch przeciwnych trójkątów w lewym górnym i prawym dolnym rogu z pasmem ukośnym, który je zawiera, daje kolejną surową nierówność
Pierwsze Ensues nierówności z poprzednich dwóch (wziąć ich pierwiastkowania i pomnożyć je), podczas gdy drugi opisuje (ścisła) włączenie trójkątów w zespole i ostatnia równość wyraża równomierność . Wniosek, że 2 ϵ < 2 ϵ jest sprzecznością dowodzącą, że X i Y nie mogą istnieć, QED .X+Y 2ϵ<2ϵ X Y
źródło
I tried finding a proof without considering characteristic functions. Excess kurtosis does the trick. Here's the two-line answer:Kurt(U)=Kurt(X+Y)=Kurt(X)/2 since X and Y are iid. Then Kurt(U)=−1.2 implies Kurt(X)=−2.4 which is a contradiction as Kurt(X)≥−2 for any random variable.
Rather more interesting is the line of reasoning that got me to that point.X (and Y ) must be bounded between 0 and 0.5 - that much is obvious, but helpfully means that its moments and central moments exist. Let's start by considering the mean and variance: E(U)=0.5 and Var(U)=112 . If X and Y are identically distributed then we have:
SoE(X)=0.25 . For the variance we additionally need to use independence to apply:
HenceVar(X)=124 and σX=126√≈0.204 . Wow! That is a lot of variation for a random variable whose support ranges from 0 to 0.5. But we should have expected that, since the standard deviation isn't going to scale in the same way that the mean did.
Now, what's the largest standard deviation that a random variable can have if the smallest value it can take is 0, the largest value it can take is 0.5, and the mean is 0.25? Collecting all the probability at two point masses on the extremes, 0.25 away from the mean, would clearly give a standard deviation of 0.25. So ourσX is large but not impossible. (I hoped to show that this implied too much probability lay in the tails for X+Y to be uniform, but I couldn't get anywhere with that on the back of an envelope.)
Second moment considerations almost put an impossible constraint onX so let's consider higher moments. What about Pearson's moment coefficient of skewness, γ1=E(X−μX)3σ3X=κ3κ3/22 ? This exists since the central moments exist and σX≠0 . It is helpful to know some properties of the cumulants, in particular applying independence and then identical distribution gives:
This additivity property is precisely the generalisation of how we dealt with the mean and variance above - indeed, the first and second cumulants are justκ1=μ and κ2=σ2 .
Thenκ3(U)=2κ3(X) and (κ2(U))3/2=(2κ2(X))3/2=23/2(κ2(X))3/2 . The fraction for γ1 cancels to yield Skew(U)=Skew(X+Y)=Skew(X)/2–√ . Since the uniform distribution has zero skewness, so does X , but I can't see how a contradiction arises from this restriction.
So instead, let's try the excess kurtosis,γ2=κ4κ22=E(X−μX)4σ4X−3 . By a similar argument (this question is self-study, so try it!), we can show this exists and obeys:
The uniform distribution has excess kurtosis−1.2 so we require X to have excess kurtosis −2.4 . But the smallest possible excess kurtosis is −2 , which is achieved by the Binomial(1,12) Bernoulli distribution.
źródło