Czy ktoś może zilustrować, tak jak Greg, ale bardziej szczegółowo, w jaki sposób zmienne losowe mogą być zależne, ale mają zerową kowariancję? Greg, plakat tutaj, podaje przykład używając koła tutaj .
Czy ktoś może wyjaśnić ten proces bardziej szczegółowo, stosując sekwencję kroków ilustrujących ten proces na kilku etapach?
Ponadto, jeśli znasz przykład z psychologii, zilustruj tę koncepcję pokrewnym przykładem. Wyjaśniaj proszę bardzo precyzyjnie i sekwencyjnie, a także określ, jakie mogą być niektóre konsekwencje.
random-variable
covariance
independence
użytkownik11883
źródło
źródło
Odpowiedzi:
Podstawową ideą jest to, że kowariancja mierzy tylko jeden konkretny rodzaj zależności , dlatego te dwa nie są równoważne. Konkretnie,
Kowariancja jest miarą tego, jak liniowo powiązane są dwie zmienne. Jeśli dwie zmienne są nieliniowo powiązane, nie znajdzie to odzwierciedlenia w kowariancji. Bardziej szczegółowy opis można znaleźć tutaj .
Zależność między zmiennymi losowymi odnosi się do każdego rodzaju relacji między nimi, która powoduje, że działają one inaczej „razem” niż „same”. W szczególności zależność między zmiennymi losowymi obejmuje wszelkie zależności między nimi, które powodują, że ich wspólny rozkład nie jest produktem ich rozkładów krańcowych. Obejmuje to relacje liniowe, a także wiele innych.
Jeśli dwie zmienne są nieliniowo powiązane, mogą potencjalnie mieć 0 kowariancji, ale nadal są zależne - podano tutaj wiele przykładów , a poniższy wykres z wikipedii podaje przykłady graficzne w dolnym rzędzie:
Jednym z przykładów, w którym zerowa kowariancja i niezależność między zmiennymi losowymi są warunkami równoważnymi, jest to, że zmienne są wspólnie rozkład normalnie podzielone (to znaczy, dwie zmienne mają dwuwymiarowy rozkład normalny , który nie jest równoważny dla dwóch zmiennych rozkładów normalnie indywidualnie). Innym szczególnym przypadkiem jest to, że pary zmiennych bernoulli są nieskorelowane wtedy i tylko wtedy, gdy są niezależne (dzięki @cardinal). Ale ogólnie rzecz biorąc, tych dwóch nie można uznać za równoważne.
Dlatego nie można ogólnie stwierdzić, że dwie zmienne są niezależne tylko dlatego, że wydają się nieskorelowane (np. Nie odrzuciły hipotezy zerowej braku korelacji). Dobrze jest wykreślić dane, aby wywnioskować, czy oba są ze sobą powiązane, a nie tylko zatrzymać się na teście korelacji. Na przykład (dzięki @gung), gdyby ktoś uruchomił regresję liniową (tj. Testował korelację niezerową) i znalazł nieistotny wynik, można by pokusić się o stwierdzenie, że zmienne nie są powiązane, ale „ badaliśmy tylko liniowy związek .
Niewiele wiem o psychologii, ale ma sens, że mogą istnieć nieliniowe relacje między zmiennymi. Jako przykład zabawki wydaje się możliwe, że zdolności poznawcze są nieliniowo związane z wiekiem - bardzo młodzi i bardzo starzy ludzie nie są tak bystrzy jak 30-latek. Gdyby nakreślić pewną miarę ablacji poznawczej w zależności od wieku, można spodziewać się, że zdolność poznawcza jest najwyższa w średnim wieku i rozpada się wokół niej, co byłoby wzorcem nieliniowym.
źródło
Standardowym sposobem nauczania / wizualizacji korelacji lub kowariancji jest wykreślanie danych, rysowanie linii na podstawie „x” i „y”, a następnie rysowanie prostokątów od punktu 2 do poszczególnych punktów danych, w następujący sposób:
Prostokąty (punkty) w prawym górnym i lewym dolnym kwadrancie (czerwone w przykładzie) przyczyniają się do dodatnich wartości korelacji / kowariancji, podczas gdy prostokąty (punkty) w lewym górnym i prawym dolnym kwadrancie (niebieskie w przykładzie) przyczyniają się do ujemnego wartości korelacji / kowariancji. Jeśli całkowity obszar czerwonych prostokątów jest równy całkowitemu obszarowi niebieskich prostokątów, to wartości dodatnie i ujemne zostaną anulowane i otrzymasz zerową kowariancję. Jeśli na czerwono jest więcej obszaru, kowariancja będzie dodatnia, a jeśli będzie więcej pola na niebiesko, kowariancja będzie ujemna.
Teraz spójrzmy na przykład z poprzedniej dyskusji:
Poszczególne punkty następują po paraboli, więc są one zależne, jeśli znasz „x”, to wiesz dokładnie „y”, ale możesz również zobaczyć, że dla każdego czerwonego prostokąta jest dopasowany niebieski prostokąt, więc ostateczna kowariancja będzie wynosić 0 .
źródło
R
pakiet, który sprawia, że te fabuły (przypominam sobie, że jeden raz wyświetla taką fabułę) czy zrobiłeś to od zera?polygon
lubrect
i urządzenia obsługującego przezroczystość alfa.TeachingDemos
pakietu. Moją pierwszą myślą było skrócenie wyrażenia „prostokąty korelacji” do „poprawienia” jako nazwy funkcji, a potem po pewnym czasie zdałem sobie sprawę, że nazwa może być łatwo źle zrozumiana jako robienie czegoś zupełnie innego. Muszę więc wymyślić lepszą nazwę, dodać kilka opcji i przesłać ją do R-Forge.Jeden prosty test, jeśli jeśli dane zasadniczo podążają za wzorem, który symetrycznie wokół osi pionowej lub poziomej przechodzi przez środek, to wariancja będzie prawie bliska zeru. Na przykład, jeśli symetria znajduje się wokół osi y, oznacza to, że dla każdej wartości o danym y występuje dodatnia różnica x względem średniej x i ujemna różnica od średniej x. Dodanie y * x dla tych wartości będzie wynosić zero. Możesz to dobrze zilustrować w zbiorze przykładowych wykresów w innych odpowiedziach. Istnieją inne wzorce, które dawałyby zerową ko-wariancję, ale nie niezależność, ale wiele przykładów można łatwo ocenić, szukając symetrii lub nie.
źródło
Przykład z Wikipedii :
„Jeśli zmienne są niezależne, współczynnik korelacji Pearsona wynosi 0, ale odwrotność nie jest prawdziwa, ponieważ współczynnik korelacji wykrywa tylko liniowe zależności między dwiema zmiennymi. Na przykład załóżmy, że zmienna losowa X ma rozkład symetryczny około zera, a Y = X ^ 2. Zatem Y jest całkowicie determinowane przez X, tak że X i Y są całkowicie zależne, ale ich korelacja wynosi zero; nie są one skorelowane. Jednak w szczególnym przypadku, gdy X i Y są wspólnie normalne, nieskorelacja jest równoważna niezależności. ”
źródło