W szczególności chcę wiedzieć, czy istnieje różnica między lm(y ~ x1 + x2)
i glm(y ~ x1 + x2, family=gaussian)
. Myślę, że ten konkretny przypadek glm jest równy lm. Czy się mylę?
r
normal-distribution
generalized-linear-model
lm
użytkownik3682457
źródło
źródło
Odpowiedzi:
Podczas gdy dla konkretnej formy modelu wymienionej w treści pytania (tj.
lm(y ~ x1 + x2)
Vsglm(y ~ x1 + x2, family=gaussian)
) regresja i GLM są tym samym modelem, pytanie tytułowe wymaga czegoś nieco bardziej ogólnego:Na które odpowiedź brzmi „Tak!”.
Powodem, dla którego mogą się różnić, jest to, że można również określić funkcję łącza w GLM. Pozwala to dopasować określone formy nieliniowej zależności międzyy (a raczej jego średnią warunkową) a zmiennymi x ; chociaż można to również zrobić
nls
, nie ma potrzeby uruchamiania wartości początkowych, czasami zbieżność jest lepsza (również składnia jest nieco łatwiejsza).Porównaj na przykład te modele (masz R, więc zakładam, że możesz sam je uruchomić):
Tak więc - w odniesieniu do pytania tytułowego - można dopasować znacznie szerszą gamę modeli Gaussa z GLM niż z regresją.
źródło
MASS::rlm
Krótka odpowiedź, są dokładnie takie same:
Dłuższa odpowiedź; Funkcja glm pasuje do modelu według MLE, jednak ze względu na założenie dotyczące funkcji łącza (w tym przypadku normalne), otrzymujesz oszacowania OLS.
źródło
glm
toglm(y ~ x1 + x2, family = gaussian(link = "identity"))
.Z odpowiedzi @ Repmat, podsumowanie modelu jest takie samo, ale współczynniki CI współczynników regresji z
confint
są nieco różne pomiędzylm
iglm
.lm
glm
źródło