Oprócz licznych (poprawnych) komentarzy innych użytkowników wskazujących, że wartość dla jest identyczna z wartością dla globalnego testu , należy zauważyć, że można również uzyskać wartość p powiązaną z r 2 „bezpośrednio” wykorzystując fakt, że r 2 pod hipotezą zerową jest dystrybuowany jako Beta ( v npr2pFpr2r2Beta(vn2,vd2), w którymvnivdsą licznik i mianownik stopnia swobody, odpowiednio, do związanegoF-statistic.
Trzeci punkt w podsekcji Pochodzenie z innych dystrybucji wpisu Wikipedii w wersji beta mówi nam, że:
Jeśli X∼χ2(α) i Y∼χ2(β) są niezależne, to XX+Y∼Beta(α2,β2).
Cóż, możemy napisać r2 w tym XX+YFormularz X + Y.
Niech SSY będzie sumą kwadratów dla zmiennej Y , SSE będzie sumą błędów kwadratu dla regresji Y dla niektórych innych zmiennych, a SSR będzie „sumą kwadratów zredukowanych”, to znaczy SSR=SSY−SSE . Następnie
I oczywiście, jako sumy kwadratów,SSRiSSEsą podzielone jakoχ2 odpowiedniozvnivdstopniami swobody. Dlatego
r2∼Beta(vn
r2=1−SSESSY=SSY−SSESSY=SSRSSR+SSE
SSRSSEχ2vnvd
(Oczywiście nie pokazałem, że dwa kwadraty chi są niezależne. Może komentator może coś o tym powiedzieć.)
r2∼Beta(vn2,vd2)
Demonstracja w języku R (kod wypożyczenia z @gung):
set.seed(111)
x = runif(20)
y = 5 + rnorm(20)
cor.test(x,y)
# Pearson's product-moment correlation
#
# data: x and y
# t = 1.151, df = 18, p-value = 0.2648
# alternative hypothesis: true correlation is not equal to 0
# 95 percent confidence interval:
# -0.2043606 0.6312210
# sample estimates:
# cor
# 0.2618393
summary(lm(y~x))
# Call:
# lm(formula = y ~ x)
#
# Residuals:
# Min 1Q Median 3Q Max
# -1.6399 -0.6246 0.1968 0.5168 2.0355
#
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) 4.6077 0.4534 10.163 6.96e-09 ***
# x 1.1121 0.9662 1.151 0.265
# ---
# Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
#
# Residual standard error: 1.061 on 18 degrees of freedom
# Multiple R-squared: 0.06856, Adjusted R-squared: 0.01681
# F-statistic: 1.325 on 1 and 18 DF, p-value: 0.2648
1 - pbeta(0.06856, 1/2, 18/2)
# [1] 0.2647731
set.seed(111); x = runif(20); y = 5 + rnorm(20); cor.test(x,y); summary(lm(y~x))
. P dla r wynosi.265
. P dla b & dla globalnego testu F są identyczne, nawet jeśli p dla a jest6.96e-09
.R
1 - pbeta(0.06856, 1/2, 18/2)
0.2647731
.265
, how are they not identical?There are several ways of deriving the test statistic for tests of the Pearson correlation,ρ . To obtain a p -value, it is worth emphasizing that you need both a test and a sampling distribution of a test statistic under the null hypothesis. Your title and question seems to have some confusion between Pearson correlation and the "variance explained" r2 . I will consider the correlation coefficient first.
There is no "best" way to test the Pearson correlation which I'm aware of. Fisher's Z transformation is one such way, based on hyperbolic transformations, so that the inference is a little bit more efficient. This is certainly a "good" approach, but the sad bit is that inference for this parameter is consistent with inference about the slope parameterβ for association: they tell the same story in the long run.
Powodem, dla którego Statystycy (klasycznie) całkowicie korzystne testów dlatego, że nie ma „najlepszy” test: regresji liniowej, która jest BLUE estymatora. W czasach współczesnych statystyk tak naprawdę nie obchodzi nas, czy test jest już „najlepszy”, ale regresja liniowa ma wiele innych fantastycznych właściwości, które uzasadniają jej dalsze stosowanie do określania związku między dwiema zmiennymi. Ogólnie rzecz biorąc, twoja intuicja jest słuszna: są w istocie tym samym i koncentrujemy naszą uwagę na β jako bardziej praktycznym mierniku skojarzenia.β β
Ther2 is a function of both the slope and the intercept. If either of these values are nonzero, the r2 should have a discernable sampling distribution relative to that which would be expected if the linear parameters were zero. However, deriving distributions of r2 under the null and comparing to r2 under some alternative hypothesis doesn't give me much confidence that this test has much power to detect what we want it to. Just a gut feeling. Again turning to "best" estimators, OLS gives us "best" estimates of both the slope and the intercept, so we have that confidence that our test is at least good for determining the same (if any) association by directly testing the model parameters. To me, jointly testing the α and β with OLS is superior to any test about r2 except in a rare case of (perhaps) a non-nested predictive modeling calibration application... but BIC would probably be a better measure in that scenario anyway.
źródło
This isn't quite how I would interpret things. I don't think I'd ever calculate ap -value for r or r2 . r and r2 are qualitative measures of a model, not measures that we're comparing to a distribution, so a p -value doesn't really make sense.
Getting ap -value for b makes a lot of sense - that's what tells you whether the model has a linear relationship or not. If b is statistically significantly different from 0 then you conclude that there is a linear relationship between the variables. The r or r2 then tells you how well the model explains the variation in the data. If r2 is low, then your independent variable isn't helping to explain very much about the dependent variable.
Ap -value for a tells us if the intercept is statistically significantly different from 0 or not. This is of varying usefulness, depending on the data. My favorite example: if you do a linear regression between gestation time and birth weight you might find an intercept of, say, 8 ounces that is statistically different from 0 . However, since the intercept represents a gestation age of 0 weeks, it doesn't really mean anything.
If anyone does regularly calculatep -values for an r2 I'd be interested in hearing about them.
źródło