Czczone przypomnienie w statystykach brzmi: „nieskorelowanie nie oznacza niezależności”. Zazwyczaj to przypomnienie jest uzupełniane kojącym psychologicznie (i naukowo poprawnym) stwierdzeniem „kiedy jednak te dwie zmienne są wspólnie normalnie rozmieszczone , wówczas nieskorelacja implikuje niezależność”.
Mogę zwiększyć liczbę szczęśliwych wyjątków z jednego do dwóch: kiedy dwie zmienne są rozkładem Bernoulliego , to znowu nieskorelacja implikuje niezależność. Jeśli i są dwoma Bermoulli rv, , dla których mamy , i analogicznie dla ich kowariancja wynosi
W przypadku braku korelacji wymagamy, aby kowariancja była równa zero
co jest warunkiem koniecznym do niezależności zmiennych.
Więc moje pytanie brzmi: czy znasz jakieś inne rozkłady (ciągłe lub dyskretne), dla których nieskorelowanie oznacza niezależność?
Znaczenie: Załóżmy, że dwie zmienne losowe które mają rozkłady krańcowe, które należą do tego samego rozkładu (być może z różnymi wartościami parametrów rozkładu), ale powiedzmy z tym samym wsparciem np. dwa wykładnicze, dwa trójkątne itp. Czy wszystkie rozwiązania równania są takie, że implikują również niezależność, z uwagi na formę / właściwości zaangażowanych funkcji rozkładu? Tak jest w przypadku normalnych marginesów (biorąc pod uwagę, że mają one dwuwymiarowy rozkład normalny), a także marginesów Bernoulliego - czy są jeszcze jakieś inne przypadki?
Motywacja jest tutaj taka, że zwykle łatwiej jest sprawdzić, czy kowariancja wynosi zero, w porównaniu do sprawdzenia, czy zachodzi niezależność. Jeśli więc, biorąc pod uwagę rozkład teoretyczny, sprawdzając kowariancję, sprawdzasz także niezależność (jak ma to miejsce w przypadku Bernoulliego lub normalnym przypadku), dobrze byłoby wiedzieć.
Jeśli otrzymamy dwie próbki z dwóch rv, które mają normalne marginesy, wiemy, że jeśli możemy statystycznie wnioskować z próbek, że ich kowariancja wynosi zero, możemy również powiedzieć, że są one niezależne (ale tylko dlatego, że mają normalne marginesy). Przydałoby się wiedzieć, czy moglibyśmy dojść do podobnego wniosku w przypadkach, w których dwa pojazdy miały marginesy należące do innej dystrybucji.
źródło
Odpowiedzi:
„Niemniej jednak, jeśli dwie zmienne są normalnie rozmieszczone, wówczas nieskorelacja implikuje niezależność” jest bardzo powszechnym błędem .
Ma to zastosowanie tylko wtedy, gdy są wspólnie dystrybuowane normalnie.
Kontrprzykład, który najczęściej widziałem, to normalny i niezależny Rademacher (więc jest to 1 lub -1 z prawdopodobieństwem 0,5 dla każdego); wtedy jest również normalne (jasne, biorąc pod uwagę jego funkcję dystrybucji), nazwa (problemem tutaj jest pokazanie np. przez iterację oczekiwania na i zauważając, że to lub z prawdopodobieństwem 0,5 każdego) i jasne jest, że zmienne są zależne (np. Jeśli znam to albo lub , więc informacja oX∼N(0,1) Y Z=XY Cov(X,Z)=0 E(XZ)=0 Y XZ X2 −X2 X>2 Z>2 Z<−2 X daje mi informacje o ). Z
Warto również pamiętać, że rozkłady krańcowe nie jednoznacznie określają rozkład połączeń. Weź dowolne dwa prawdziwe RV i z marginalnymi CDF i . Następnie dla dowolnego funkcja:X Y FX(x) GY(y) α<1
będzie dwuwymiarowym CDF. (Aby uzyskać krańcowy z weź limit, gdy idzie do nieskończoności, gdzie dla ) Oczywiście, wybierając różne wartości z można uzyskać różne wspólne rozkłady!FX(x) HX,Y(x,y) y FY(y)=1 Y α
źródło