Regresja wielokrotna czy współczynnik korelacji częściowej? I relacje między nimi

35

Nie wiem nawet, czy to pytanie ma sens, ale jaka jest różnica między regresją wielokrotną a korelacją częściową (oprócz oczywistych różnic między korelacją a regresją, do czego nie dążę)?

Chcę dowiedzieć się, co następuje:
Mam dwie zmienne niezależne ( , ) i jedną zmienną zależną ( ). Teraz indywidualnie zmienne niezależne nie są skorelowane ze zmienną zależną. Ale dla danego maleje, gdy maleje. Czy analizuję to za pomocą regresji wielokrotnej lub częściowej korelacji ?x1x2yx1 yx2

edytuj, aby, mam nadzieję, poprawić moje pytanie: Próbuję zrozumieć różnicę między regresją wielokrotną a korelacją częściową. Tak więc, kiedy zmniejsza się dla danego gdy maleje, to czy wynika to z połączonego wpływu i na (regresja wielokrotna) czy jest to spowodowane usunięciem efektu (częściowa korelacja)?yx1x2x1x2yx1

użytkownik34927
źródło
3
Na jakie merytoryczne pytanie próbujesz odpowiedzieć?
gung - Przywróć Monikę
Zobacz także bardzo podobne pytanie stats.stackexchange.com/q/50156/3277 .
ttnphns,

Odpowiedzi:

32

Wielokrotny współczynnik regresji liniowej i korelacja częściowa są bezpośrednio powiązane i mają takie samo znaczenie (wartość p). Częściowe r jest po prostu innym sposobem standaryzacji współczynnika, wraz ze współczynnikiem beta (znormalizowany współczynnik regresji) . Zatem jeśli zmienną zależną jest a niezależnymi są i to1yx1x2

Beta:βx1=ryx1ryx2rx1x21rx1x22

Partial r:ryx1.x2=ryx1ryx2rx1x2(1ryx22)(1rx1x22)

Widać, że liczniki są takie same, które mówią, że oba wzory mierzyć ten sam niepowtarzalny efekt z . Spróbuję wyjaśnić, w jaki sposób te dwie formuły są strukturalnie identyczne i jak nie są.x1

Załóżmy, że znormalizowałeś (średnia 0, wariancja 1) wszystkie trzy zmienne. Licznik jest zatem równa kowariancji dwóch rodzajów reszt : z (a) pozostawiać resztki w przewidywaniu przez [obie zmienne standard] i (b) pozostałości pozostawione w przewidywaniu przez [obie zmienne standard]. Ponadto wariancja reszt (a) wynosi ; wariancja reszt (b) wynosi .yx2x1x21ryx221rx1x22

Wzór na korelację częściową pojawia się wtedy wyraźnie wzór zwykłego Pearsona , obliczony w tym przypadku między resztami (a) i resztami (b): wiemy, że Pearson jest kowariancją podzieloną przez mianownik, który jest średnią geometryczną dwie różne warianty.rr

Znormalizowany współczynnik beta jest strukturalnie podobny do Pearsona , tyle że mianownik jest średnią geometryczną wariancji z własnym ja . Wariancja reszt (a) nie została zliczona; zostało zastąpione przez drugie zliczanie wariancji reszt (b). Beta jest zatem kowariancją dwóch reszt względem względnej wariancji jednej z nich (konkretnie tej odnoszącej się do predyktora zainteresowania, ). Chociaż częściowa korelacja, jak już zauważono, to ta sama kowariancja w stosunku do ich wariancji hybrydowej . Oba typy współczynników są sposobami na ujednolicenie efektu w środowisku innych predyktorów.rx1x1

Niektóre liczbowe konsekwencje różnicy. Jeśli R-kwadrat wielokrotnej regresji przez i będzie 1, wówczas obie częściowe korelacje predyktorów z zależną będą również równe 1 wartości bezwzględnej (ale beta na ogół nie będzie 1). W rzeczywistości, jak wspomniano, jest korelacja między resztek i resztek . Jeśli to, co nie jest w jest dokładnie tym , co nie jest w to nie ma nic w co nie ani aniyx1x2ryx1.x2y <- x2x1 <- x2x2y x2x1yx1x2 : pełne dopasowanie. Jakakolwiek jest ilość niewyjaśnionej (przez ) części pozostawionej w ( ), jeśli jest ona przechwycona stosunkowo wysoko przez niezależną część (przez ), będzie wysoki. Z drugiej strony będzie wysoki tylko pod warunkiem, że uchwycona niewyjaśniona część jest sama w sobie znaczną częścią .x2y1ryx22x11rx1x22ryx1.x2βx1yy


Z powyższych wzorów uzyskuje się (i rozciągając od regresji 2-predyktorowej do regresji z dowolną liczbą predyktorów ) wzór konwersji między beta i odpowiadającym jej częściowym r:x1,x2,x3,...

ryx1.X=βx1var(ex1X)var(eyX),

gdzie oznacza zbiór wszystkich predyktorów oprócz bieżącego ( ); to reszty z regresji przez , a to reszty z regresji przez , zmienne w obu tych regresjach wprowadzają je znormalizowane .Xx1eyXyXex1Xx1X

Uwaga: jeśli musimy obliczyć częściowe korelacje z każdym predyktorem , zwykle nie będziemy używać tej formuły wymagającej wykonania dwóch dodatkowych regresji. Zamiast tego zostaną wykonane operacje przeszukiwania (często stosowane w algorytmach regresji stopniowej i wszystkich podzbiorach) lub obliczona zostanie macierz korelacji antyobrazowej.yx


1 βx1=bx1σx1σy to relacja między surowym a standardowymi współczynnikami regresji z przechwyceniem.bβ

ttnphns
źródło
Dziękuję Ci. Ale jak zdecydować, który wybrać, np. W celu opisanym w moim pytaniu?
user34927,
2
Oczywiście masz swobodę wyboru: liczniki są takie same, więc przekazują te same informacje. Jeśli chodzi o twoje (nie do końca wyjaśnione) pytanie, wydaje się, że dotyczy tematów „może regr. Coef. Być 0, gdy r nie jest 0”; msgstr "może regr. coef. nie być 0, gdy r wynosi 0". Na stronie jest wiele pytań na ten temat. Na przykład możesz przeczytać stats.stackexchange.com/q/14234/3277 ; stats.stackexchange.com/q/44279/3277 .
ttnphns
Próbowałem wyjaśnić moje pytanie ..
user34927,
Naprawienie X1 („podano x1”) = usunięcie (kontrolowanie) efektu X1. W regresji wielokrotnej nie ma czegoś takiego jak „efekt łączony” (chyba że dodasz interakcję X1 * X2). Efekty regresji wielorakiej są konkurencyjne. Efekty regresji liniowej są w rzeczywistości częściowymi korelacjami.
ttnphns
1
Poczekaj chwilę, @ user34927. Skądto prove that the DV (Y) is significantly correlated with one of two IVs (X1) if the effect of the other IV (X2) is removed efekt usunięty ? Jeśli „usuniesz” X2 zarówno z Y, jak i X1, to będzie to corr. między Y a X1 jest korelacja częściowa . Jeśli „usuniesz” X2 tylko z X1, to będzie to corr. między Y i X 1 jest nazywany część (lub pół-częściowe) korelacji. Naprawdę o to pytałeś ?
ttnphns,
0

Przypadkiem wpadłem na ten bieżnik. W pierwotnej odpowiedzi we wzorze na brakuje czynnika , czyli gdzie i .βx1SSY/SSX1

βx1=ryx1ryx2 rx1x21rx1x22×SSYSSX1,
SSY=i(yiy¯)2SSX1=i(x1ix¯1)2
Brani
źródło
Podajesz wzór . Moja odpowiedź dotyczyła . bβ
ttnphns