Podstawowe ustawienia:
Model regresji: gdzie C jest wektorem zmiennych kontrolnych.
Interesuję się i oczekuj i być negatywnym. W modelu występuje jednak problem wielokoliniowości, współczynnik korelacji podaje: corr (, 0,9345, corr (, 0,1765, corr (, 0,3019.
Więc i są wysoce skorelowane i powinny właściwie dostarczać te same informacje. Prowadzę trzy regresje:
- wykluczać zmienna; 2. wykluczyćzmienna; 3. oryginalny model z obydwoma i .
Wyniki:
Dla regresji 1 i 2 zapewnia oczekiwany znak i odpowiednio i o podobnej wielkości. I i są znaczące na poziomie 10% w obu modelach po wykonaniu korekcji HAC w błędzie standardowym. jest dodatni, ale nieistotny w obu modelach.
Ale za 3 ma oczekiwany znak, ale znak dla jest dodatni z wielkością dwukrotnie większą niż w wartości bezwzględnej. I oboje i są nieistotne. Co więcej, wielkość dla zmniejsza się prawie o połowę w porównaniu z regresją 1 i 2.
Moje pytanie brzmi:
Dlaczego za 3, znak staje się pozytywny i znacznie większy niż w wartości bezwzględnej? Czy ma to jakiś statystyczny powód?może odwrócić znak i ma dużą wielkość? A może dlatego, że model 1 i 2 cierpią z powodu pomijanego problemu zmiennej, który się zawyżał opatrzony ma pozytywny wpływ na Ciebie? Ale potem w modelu regresji 1 i 2, oba i powinien być dodatni zamiast ujemny, ponieważ całkowity efekt i w regresji model 3 jest dodatni.
Prosta odpowiedź brzmi: nie ma głębokiego powodu.
Można myśleć o tym tak, że gdy wielokoliniowe podejście zbliża się idealnie, konkretne wartości, które ostatecznie uzyskujesz z dopasowania, stają się coraz bardziej zależne od coraz mniejszych szczegółów danych. Jeśli próbkujesz tę samą ilość danych z tego samego rozkładu podstawowego, a następnie dopasowujesz, możesz uzyskać zupełnie inne dopasowane wartości.
źródło