Jeśli X
Wskazówka mówi, aby zacząć od 1
Chyba trochę zmieszany, jak to zrobić matematycznie.
covariance
independence
użytkownik3604869
źródło
źródło
Odpowiedzi:
W przypadku zmiennych binarnych ich oczekiwana wartość jest równa prawdopodobieństwu, że są one równe jeden. W związku z tym,
E ( X Y ) = P ( X Y = 1 ) = P ( X = 1 ∩ Y = 1 )E ( X ) = P ( X = 1 )E ( Y ) = P ( Y = 1 )
Jeśli dwa mają zerową kowariancję, oznacza to E ( X Y ) = E ( X ) E ( Y )E(XY)=E(X)E(Y) , co oznacza
P ( X = 1 ∩ Y = 1 ) = P ( X = 1 ) ⋅ P ( Y = 1 )
Trywialne jest obserwowanie mnożenia wszystkich innych prawdopodobieństw połączeń, przy użyciu podstawowych zasad dotyczących niezależnych zdarzeń (tj. Jeśli AA i BB są niezależne, to ich uzupełnienia są niezależne itp.), Co oznacza, że funkcja masy wspólnej rozkłada się, co jest definicją dwóch niezależnych zmiennych losowych.
źródło
Both correlation and covariance measure linear association between two given variables and it has no obligation to detect any other form of association else.
Tak więc te dwie zmienne mogą być powiązane na kilka innych nieliniowych sposobów, a kowariancja (a zatem korelacja) nie mogła odróżnić od niezależnego przypadku.
Jako bardzo dydaktyczny, sztuczne i dla realistycznego przykład, można rozważyć X tak, że P ( X = x ) = 1 / 3 dla x = - 1 , 0 , 1 i również rozważyć Y = X 2X P(X=x)=1/3 x=−1,0,1 Y=X2 . Zauważ, że są one nie tylko powiązane, ale jedno jest funkcją drugiego. Niemniej ich kowariancja wynosi 0, ponieważ ich powiązanie jest ortogonalne względem związku, który kowariancja może wykryć.
EDYTOWAĆ
Rzeczywiście, jak wskazał @whuber, powyższa oryginalna odpowiedź była w rzeczywistości komentarzem, w jaki sposób twierdzenie nie jest ogólnie prawdziwe, jeśli obie zmienne niekoniecznie byłyby dychotomiczne. Mój błąd!
So let's math up. (The local equivalent of Barney Stinson's "Suit up!")
Particular Case
If both XX and YY were dichotomous, then you can assume, without loss of generality, that both assume only the values 00 and 11 with arbitrary probabilities pp , qq and rr given by
P(X=1)=p∈[0,1]P(Y=1)=q∈[0,1]P(X=1,Y=1)=r∈[0,1],
Notice that r=P(X=1,Y=1)r=P(X=1,Y=1) might be equal to the product p⋅q=P(X=1)P(Y=1)p⋅q=P(X=1)P(Y=1) , which would render XX and YY independent, since
P(X=0,Y=0)=1−p−q−pq=(1−p)(1−q)=P(X=0)P(Y=0)P(X=1,Y=0)=p−pq=p(1−q)=P(X=1)P(Y=0)P(X=0,Y=1)=q−pq=(1−p)q=P(X=0)P(Y=1).
Yes, rr might be equal to pqpq , BUT it can be different, as long as it respects the boundaries above.
Well, from the above joint distribution, we would have E(X)=0⋅P(X=0)+1⋅P(X=1)=P(X=1)=pE(Y)=0⋅P(Y=0)+1⋅P(Y=1)=P(Y=1)=qE(XY)=0⋅P(XY=0)+1⋅P(XY=1)=P(XY=1)=P(X=1,Y=1)=rCov(X,Y)=E(XY)−E(X)E(Y)=r−pq
Now, notice then that XX and YY are independent if and only if Cov(X,Y)=0Cov(X,Y)=0 . Indeed, if XX and YY are independent, then P(X=1,Y=1)=P(X=1)P(Y=1)P(X=1,Y=1)=P(X=1)P(Y=1) , which is to say r=pqr=pq . Therefore, Cov(X,Y)=r−pq=0Cov(X,Y)=r−pq=0 ; and, on the other hand, if Cov(X,Y)=0Cov(X,Y)=0 , then r−pq=0r−pq=0 , which is to say r=pqr=pq . Therefore, XX and YY are independent.
General Case
About the without loss of generality clause above, if XX and YY were distributed otherwise, let's say, for a<ba<b and c<dc<d ,
P(X=b)=pP(Y=d)=qP(X=b,Y=d)=r
Also, we would have E(X′)=E(X−ab−a)=E(X)−ab−aE(Y′)=E(Y−cd−c)=E(Y)−cd−cE(X′Y′)=E(X−ab−aY−cd−c)=E[(X−a)(Y−c)](b−a)(d−c)=E(XY−Xc−aY+ac)(b−a)(d−c)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)Cov(X′,Y′)=E(X′Y′)−E(X′)E(Y′)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)−E(X)−ab−aE(Y)−cd−c=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)−a][E(Y)−c](b−a)(d−c)=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)E(Y)−cE(X)−aE(Y)+ac](b−a)(d−c)=E(XY)−E(X)E(Y)(b−a)(d−c)=1(b−a)(d−c)Cov(X,Y).
=D
źródło
IN GENERAL:
The criterion for independence is F(x,y)=FX(x)FY(y). Or fX,Y(x,y)=fX(x)fY(y)
"If two variables are independent, their covariance is 0. But, having a covariance of 0 does not imply the variables are independent."
This is nicely explained by Macro here, and in the Wikipedia entry for independence.
independence⇒zero cov, yet
zero cov⇏independence.
Great example: X∼N(0,1), and Y=X2. Covariance is zero (and E(XY)=0, which is the criterion for orthogonality), yet they are dependent. Credit goes to this post.
IN PARTICULAR (OP problem):
These are Bernoulli rv's, X and Y with probability of success Pr(X=1), and Pr(Y=1).
cov(X,Y)=E[XY]−E[X]E[Y]=∗Pr(X=1∩Y=1)−Pr(X=1)Pr(Y=1)⟹Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1).
This is equivalent to the condition for independence in Eq. (1).
(∗):
E[XY]=∗∗∑domain X, YPr(X=x∩Y=y)xy=≠0 iff x×y≠0Pr(X=1∩Y=1).
(∗∗): by LOTUS.
As pointed out below, the argument is incomplete without what Dilip Sarwate had pointed out in his comments shortly after the OP appeared. After searching around, I found this proof of the missing part here:
Similarly. A and Bc are independent events.
So, we have shown already that Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1)
źródło