Założenia do uzyskania estymatora OLS

14

Czy ktoś może mi krótko wyjaśnić, dlaczego każde z sześciu założeń jest potrzebne do obliczenia estymatora OLS? Odkryłem tylko o wielokoliniowości - że jeśli istnieje, nie możemy odwrócić macierzy (X'X), a tym samym oszacować ogólny estymator. A co z innymi (np. Liniowość, błędy o wartości zero, itp.)?

Ieva
źródło
1
Szukasz wyjaśnienia pojęciowego, czy potrzebujesz prezentacji matematycznej?
Gung - Przywróć Monikę
4
Zwykłe najmniejsze kwadraty to procedura numeryczna, nie trzeba wiele założeń, aby ją obliczyć (oprócz odwracalności). Założenia są potrzebne, aby uzasadnić wnioskowanie na podstawie tego, patrz moja odpowiedź wczoraj: stats.stackexchange.com/questions/148803/…
kjetil b halvorsen
1
Dokładnie do jakich „sześciu założeń” masz na myśli? Wspominasz tylko o trzech.
whuber
Odnoszę się do 1) liniowości 2) braku wielokoliniowości 3) błędów średniej zerowej 4) błędów sferycznych (homoscedastyczność i brak autokorelacji) 5) niestochastycznych regresorów i 6) rozkładu normalnego. Tak więc, jak zrozumiałem z poniższej odpowiedzi, tylko pierwsze trzy są potrzebne do uzyskania estymatora, a inne są potrzebne tylko, aby upewnić się, że estymator jest NIEBIESKI?
Ieva

Odpowiedzi:

23

Zawsze możesz obliczyć estymator OLS, z wyjątkiem przypadku, gdy masz doskonałą wielokoliniowość. W tym przypadku macie doskonałą zależność wieloliniową w macierzy X. W związku z tym założenie pełnej rangi nie zostało spełnione i nie można obliczyć estymatora OLS z powodu problemów z odwracalnością.

Technicznie nie potrzebujesz innych założeń OLS do obliczenia estymatora OLS. Jednak zgodnie z twierdzeniem Gaussa-Markowa należy spełnić założenie OLS (założenia clrm), aby estymator był NIEBIESKI.

Obszerne omówienie twierdzenia Gaussa-Markowa i jego matematycznej pochodnej znajduje się tutaj:

http://economictheoryblog.com/2015/02/26/markov_theorem/

Ponadto, jeśli szukasz przeglądu założeń OLS, tj. Ile ich jest, czego wymagają i co się stanie, jeśli złamiesz pojedyncze założenie OLS, możesz znaleźć tutaj szczegółową dyskusję:

http://economictheoryblog.com/2015/04/01/ols_assumptions/

Mam nadzieję, że to pomaga, na zdrowie!

Simon Degonda
źródło
14

Poniższe opiera się na prostych przekrojach, dla szeregów czasowych i paneli jest nieco inaczej.

  1. W populacji, a zatem w próbie, model można zapisać jako: Jest to założenie o liniowości, które jest czasami źle rozumiane. Model powinien być liniowy w parametrach - mianowicieβk. Za pomocąximożesz robić, co chcesz
    Y=β0+β1x1++βkxk+u=Xβ+u
    βkxi . Dzienniki, kwadraty itp. Jeśli tak nie jest, model OLS nie może oszacować - potrzebujesz innego nieliniowego estymatora.
  2. Losowa próbka (dla przekrojów) Jest to potrzebne do wnioskowania i właściwości próbki. Jest to nieco nieistotne dla czystej mechaniki OLS.
  3. Nie idealny kolinearności oznacza to, że nie można osiągnąć idealny związek między . Jest to założenie, które zapewnia, że ( X X ) nie jest jednostkowe, tak że ( X X ) - 1 istnieje.xi(XX)(XX)1
  4. Zero średniej warunkowej: . Oznacza to, że poprawnie określiłeś model, tak że: nie ma pominiętych zmiennych, a oszacowana forma funkcjonalna jest poprawna w stosunku do (nieznanego) modelu populacji. Jest to zawsze problematyczne założenie w przypadku OLS, ponieważ nie ma sposobu, aby wiedzieć, czy jest on rzeczywiście ważny, czy nie.E(u|X)=0
  5. Wariancja terminu błędów jest stała, zależna od wszystkich : V a r ( u | X ) = σ 2 Znów nie oznacza to nic dla mechaniki OLS, ale zapewnia, że ​​zwykłe standardowe błędy są prawidłowe.XiVar(u|X)=σ2
  6. Normalność; składnik błędu u jest niezależny od występuje po u N ( 0 , σ 2 ) . Ponownie nie ma to znaczenia dla mechaniki OLS, ale zapewnia, że ​​rozkład próbkowania β k jest normalny, ^ β kN ( β k , V a r ( ^ β k ) ) .XiuN(0,σ2)βkβk^N(βk,Var(βk^))

Teraz implikacje.

  1. Poniżej 1 - 6 (założenia klasycznego modelu liniowego) OLS jest NIEBIESKI (najlepszy liniowy obiektywny estymator), najlepszy w sensie najniższej wariancji. Jest także skuteczny wśród wszystkich estymatorów liniowych, a także wszystkich estymatorów, które wykorzystują jakąś funkcję x. Co ważniejsze, poniżej 1 - 6, OLS jest także obiektywnym estymatorem minimalnej wariancji. Oznacza to, że spośród wszystkich obiektywnych estymatorów (nie tylko liniowych) OLS ma najmniejszą wariancję. OLS jest również spójny.

  2. Poniżej 1 - 5 (założenia Gaussa-Markowa) OLS jest NIEBIESKI i wydajny (jak opisano powyżej).

  3. Poniżej 1–4 OLS jest bezstronny i konsekwentny.

W rzeczywistości OLS jest również spójny, przy słabszym założeniu niż a mianowicie, że: ( 1 ) E ( u ) = 0 i ( 2 ) C o v ( x j , u ) = 0 . Różnica w stosunku do założeń 4 polega na tym, że zgodnie z tym założeniem nie trzeba idealnie nawiązywać do zależności funkcjonalnej.(4)(1) E(u)=0(2) Cov(xj,u)=0

Repmat
źródło
Myślę, że malujesz zbyt ciemny obraz o warunku zerowym. Gdyby istniało odchylenie, wówczas minimalizacja sumy kwadratowych odchyleń nie byłaby właściwa, ale z drugiej strony można uchwycić odchylenie, przesuwając równanie regresji (pochłaniając odchylenie do ), a następnie Ci nie mają średnią 0. innymi słowy, 4 jest jednocześnie niemożliwe do zweryfikowania i łatwe do zignorowania. β0
user3697176,
Przepraszam, ale się nie zgadzam. A może po prostu cię źle zrozumiałem? Czy możesz opracować lub podać referencje?
Repmat
Nie mówię o celowo zniekształconym oszacowaniu (takim jak regresja kalenicy), który, jak sądzę, nie był zainteresowany PO. Mówię o modelu o postaci w którym --- z jakiegoś dziwnego powodu --- reszta ϵ ma średnią α 0 . W takim przypadku łatwo jest przeprowadzić formalną transformację do y = α + β 0 + β 1 x 1 + +y=β0+β1x1++βxxn+ϵϵα0 , gdzie średnia η wynosi zero. y=α+β0+β1x1++βxxn+ηη
user3697176
@ user3697176 To, co piszesz, jest nieprawidłowe. Właśnie opublikowałem odpowiedź wyjaśniającą dlaczego.
Alecos Papadopoulos
Jeśli założenie 1 nie jest spełnione, czy nadal nie możemy użyć OLS do oszacowania kowariancji populacji (chociaż wiemy, że nie ma zależności liniowej)?
maks
7

Komentarz w innym pytaniu wzbudził wątpliwości co do znaczenia warunku , argumentując, że można go poprawić poprzez włączenie stałego terminu do specyfikacji regresji, a zatem „można go łatwo zignorować”.E(uX)=0

Tak nie jest. Włączenie stałego składnika do regresji pochłonie potencjalnie niezerową średnią warunkową błędu, jeśli założymy, że ta średnia warunkowa jest już stała, a nie funkcją regresorów . Jest to kluczowe założenie, które należy przyjąć niezależnie od tego, czy uwzględniamy stały termin, czy nie:

E(uX)=const.

Jeśli tak się stanie, wówczas niezerowa średnia staje się uciążliwością, którą możemy po prostu rozwiązać, dołączając stały składnik.

Ale jeśli tak się nie stanie (tj. Jeśli średnia warunkowa nie jest stałą zerową lub niezerową ), włączenie terminu stałego nie rozwiązuje problemu: to, co „absorbuje” w tym przypadku, jest wielkością zależy to od konkretnej próby i realizacji regresorów. W rzeczywistości nieznany współczynnik przypisany do szeregu jedności nie jest tak naprawdę stały, ale zmienny, w zależności od regresorów poprzez niestałą średnią warunkową składnika błędu.

Co to oznacza? Aby uprościć, załóżmy najprostszy przypadek, w którym ( i indeksuje obserwacje), ale E ( u ix i ) = h ( x i ) . To znaczy, że termin średni błąd jest niezależny od regresorów z wyjątkiem jego ówczesnych te (w X mamy nie obejmują serię jedynek).E(uiXi)=0iE(uixi)=h(xi)X

Załóżmy, że określamy regresję z uwzględnieniem stałego terminu (regresor szeregu jednych).

y=a+Xβ+ε

i notacja kompaktowania

y=Zγ+ε

gdzie , Z = [ 1 : X ] , γ = ( , P ) ' , ε = U - .a=(a,a,a...)Z=[1:X]γ=(a,β)ε=ua

Wtedy będzie estymator OLS

γ^=γ+(ZZ)1Zε

Dla bezstronności potrzebujemy . AleE[εZ]=0

E[εixi]=E[uiaxi]=h(xi)a

który nie może być zerowy dla wszystkich , ponieważ badamy przypadek, w którym h ( x i ) nie jest funkcją stałą. Więcih(xi)

E[εZ]0E(γ^)γ

i

Jeśli , to nawet jeśli uwzględnimy regresję w stałej wartości, estymator OLS nie będzie bezstronny , co oznacza również, że wynik Gaussa-Markowa dotyczący wydajności został utraconyE(uixi)=h(xi)h(xj)=E(ujxj) .

Ponadto, termin błędu ma inną średnią dla każdego i , a więc także inną wariancję (tj. Jest warunkowo heteroskedastyczny). Więc jego dystrybucja uwarunkowane regresorów różni się w uwagach í . εii

Ale to oznacza, że nawet jeśli termin błąd zakłada się normalne, a następnie rozkład błędu próbkowania y - γ będzie normalne, ale nie zerową średnią mormal iz nieznanego błędu. I wariancja będzie się różnić. Więcuiγ^γ

Jeśli , to nawet jeśli uwzględnimy regresję w stałej wartości, testowanie hipotez nie jest już ważne.E(uixi)=h(xi)h(xj)=E(ujxj)

Innymi słowy, właściwości „skończonej próbki” zniknęły.

Pozostaje nam tylko skorzystać z asymptotycznie ważnego wnioskowania, dla którego będziemy musieli poczynić dodatkowe założenia.

So simply put, Strict Exogeneity cannot be "easily ignored".

Alecos Papadopoulos
źródło
I'm not completely sure I understand this. Isn't assuming that the mean is a not a function of the regressors equivalent to assuming homoscedasticity?
Batman
@Batman To what part of my post are you referring to?
Alecos Papadopoulos
When you say "The inclusion of a constant term in the regression will absorb the possibly non-zero conditional mean of the error term if we assume that this conditional mean is already a constant and not a function of the regressors. This is the crucial assumption that must be made independently of whether we include a constant term or not." Isn't assuming that the conditional mean isn't a function of the regressors exactly what we're assuming when we assume homoscedasticity?
Batman
@Batman Homoskedasticity is an assumption about the variance. Assuming mean -independence does not imply that E(uj2x) is also a constant, which is also needed for conditional homoskedasticity. In fact, mean-independence, E(ux)=const. together with conditional heteroskedasticity, E(u2x)=g(x) is a standard model variant.
Alecos Papadopoulos