Dlaczego

14

Uwaga: = suma kwadratów ogółem, = suma kwadratów błędów, a = regresja suma kwadratów. Równanie w tytule jest często zapisywane jako:SSTSSESSR

i=1n(yiy¯)2=i=1n(yiy^i)2+i=1n(y^iy¯)2

Dość proste pytanie, ale szukam intuicyjnego wyjaśnienia. Intuicyjnie wydaje mi się, że miałoby większy sens. Załóżmy na przykład, że punkt ma odpowiednią wartość y i , gdzie jest odpowiednim punktem na linii regresji. Załóżmy również, że średnia wartość y dla zestawu danych wynosi . Następnie dla tego konkretnego punktu i, , podczas gdy i . Oczywiście . Czy ten wynik nie uogólniałby na cały zestaw danych? Nie rozumiemSSTSSE+SSRxir i = 3, y i ˉ Y = 0 S S T = ( 5 - 0 ) 2 = 5 2 = 25 S S E = ( 5 - 3 ) 2 = 2 2 = 4 S S.yi=5y^i=3y^iy¯=0SST=(50)2=52=25SSE=(53)2=22=4SSR=(30)2=32=99+4<25

Krzywka
źródło

Odpowiedzi:

15

Dodanie i odjęcie daje Musimy więc wykazać, że n i = 1

i=1n(yiy¯)2=i=1n(yiy^i+y^iy¯)2=i=1n(yiy^i)2+2i=1n(yiy^i)(y^iy¯)+i=1n(y^iy¯)2
. Zapisu n Σ i = 1 ( R I - Y I ) ( Y i - ˉ y ) = n Σ i = 1 ( R I - Y I ), Y i - ˂ yi=1n(yiy^i)(y^iy¯)=0 tak, (a) resztyeI=Yi - R imusi być ortogonalny do wartości zamontowane,Σ n i = 1 (yı - y I) r i=0, i (b) suma wartości dopasowanych potrzeby, aby była równa sumie zmienną zależną,Σ n i = 1 yi
i=1n(yiy^i)(y^iy¯)=i=1n(yiy^i)y^iy¯i=1n(yiy^i)
ei=yiy^ii=1n(yiy^i)y^i=0 .i=1nyi=i=1ny^i

Faktycznie, że (a) jest łatwiej wykazać w notacji macierzowej o ogólnym regresji wielokrotnej, której jednym przypadku zmiennej jest przypadkiem specjalnym: W przypadku (b) pochodną funkcji kryterium OLS względem stałej (! Więc potrzebny do regresji to prawda), znany jako normalne równania , jest SSR

eXβ^=(yXβ^)Xβ^=(yX(XX)1Xy)Xβ^=y(XX(XX)1XX)β^=y(XX)β^=0
które można przekształcić do ΣiYi=n α + β ΣIxI po prawej stronie w równaniu oczywiście jest równieżΣ n i = 1 Y ı, a Y i= α
SSRα^=2i(yiα^β^xi)=0,
iyi=nα^+β^ixi
i=1ny^iy^i=α^+β^xi
Christoph Hanck
źródło
3

SST=SSR+SSE

SSTSST=SSR+SSE (exact equality).

(2) Geometric intuition

Please see the first few pictures here (especially the third): https://sites.google.com/site/modernprogramevaluation/variance-and-bias

Some of the total variation in the data (distance from datapoint to Y¯) is captured by the regression line (the distance from the regression line to Y¯) and error (distance from the point to the regression line). There's not room left for SST to be greater than SSE+SSR.

(3) The problem with your illustration

You can't look at SSE and SSR in a pointwise fashion. For a particular point, the residual may be large, so that there is more error than explanatory power from X. However, for other points, the residual will be small, so that the regression line explains a lot of the variability. They will balance out and ultimately SST=SSR+SSE. Of course this is not rigorous, but you can find proofs like the above.

Also notice that regression will not be defined for one point: b1=(XiX¯)(YiY¯)(XiX¯)2, and you can see that the denominator will be zero, making estimation undefined.

Hope this helps.

--Ryan M.

RMurphy
źródło
1

When an intercept is included in linear regression(sum of residuals is zero), SST=SSE+SSR.

prove

SST=i=1n(yiy¯)2=i=1n(yiy^i+y^iy¯)2=i=1n(yiy^i)2+2i=1n(yiy^i)(y^iy¯)+i=1n(y^iy¯)2=SSE+SSR+2i=1n(yiy^i)(y^iy¯)
Just need to prove last part is equal to 0:
i=1n(yiy^i)(y^iy¯)=i=1n(yiβ0β1xi)(β0+β1xiy¯)=(β0y¯)i=1n(yiβ0β1xi)+β1i=1n(yiβ0β1xi)xi
In Least squares regression, the sum of the squares of the errors is minimized.
SSE=i=1n(ei)2=i=1n(yiyi^)2=i=1n(yiβ0β1xi)2
Take the partial derivative of SSE with respect to β0 and setting it to zero.
SSEβ0=i=1n2(yiβ0β1xi)1=0
So
i=1n(yiβ0β1xi)1=0
Take the partial derivative of SSE with respect to β1 and setting it to zero.
SSEβ1=i=1n2(yiβ0β1xi)1xi=0
So
i=1n(yiβ0β1xi)1xi=0
Hence,
i=1n(yiy^i)(y^iy¯)=(β0y¯)i=1n(yiβ0β1xi)+β1i=1n(yiβ0β1xi)xi=0
SST=SSE+SSR+2i=1n(yiy^i)(y^iy¯)=SSE+SSR

DavidCruise
źródło