Korzystam z regresji opartej na GAM, używając pakietu R gamlss i zakładając zerową zawyżoną dystrybucję danych beta. Mam tylko jedną zmienną objaśniającą w moim modelu, więc to zasadniczo: mymodel = gamlss(response ~ input, family=BEZI)
.
Algorytm podaje mi współczynnik dla wpływu zmiennej objaśniającej na średnią ( ) i powiązaną wartość p dla k (\ text {input}) = 0 , coś w stylu:μ k ( wejście ) = 0
Mu link function: logit
Mu Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -2.58051 0.03766 -68.521 0.000e+00
input -0.09134 0.01683 -5.428 6.118e-08
Jak widać w powyższym przykładzie, hipoteza jest odrzucana z dużą pewnością.
Następnie uruchamiam model zerowy: null = gamlss(response ~ 1, family=BEZI)
i porównuję prawdopodobieństwa za pomocą testu współczynnika wiarygodności:
p=1-pchisq(-2*(logLik(null)[1]-logLik(mymodel)[1]), df(mymodel)-df(null)).
W wielu przypadkach otrzymuję nawet jeśli współczynniki na wejściu są zgłaszane jako bardzo znaczące (jak wyżej). Uważam to za dość niezwykłe - przynajmniej nigdy nie zdarzyło się to w moim doświadczeniu z regresją liniową lub logistyczną (w rzeczywistości nigdy nie zdarzyło się to, gdy używałem gamma skorygowanej do zera).
Moje pytanie brzmi: czy nadal mogę ufać zależności między odpowiedzią a danymi wejściowymi, gdy tak jest?