Mój zestaw danych () ma zmienną zależną (DV), pięć niezależnych zmiennych „podstawowych” (P1, P2, P3, P4, P5) i jedną niezależną zmienną będącą przedmiotem zainteresowania (Q).
Uruchomiłem regresje liniowe OLS dla następujących dwóch modeli:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
Tj. Dodanie predyktora Q zmniejszyło wariancję wyjaśnioną w modelu liniowym. O ile rozumiem, to nie powinno się zdarzyć .
Żeby było jasne, to są wartości R-kwadrat i nie skorygowane wartości R-kwadrat.
I zostały zweryfikowane wartości R-kwadrat używając Jasp i Pythona statsmodels .
Czy jest jakiś powód, dla którego mógłbym zobaczyć to zjawisko? Być może coś związanego z metodą OLS?
Odpowiedzi:
Czy to możliwe, że brakuje Ci wartości,
Q
które są automatycznie usuwane? Miałoby to wpływ na próbę, przez co dwie regresje nie byłyby porównywalne.źródło