Znaczenie współczynników regresji (GAM), gdy prawdopodobieństwo modelu nie jest znacząco wyższe niż zero

10

Korzystam z regresji opartej na GAM, używając pakietu R gamlss i zakładając zerową zawyżoną dystrybucję danych beta. Mam tylko jedną zmienną objaśniającą w moim modelu, więc to zasadniczo: mymodel = gamlss(response ~ input, family=BEZI).

Algorytm podaje mi współczynnik dla wpływu zmiennej objaśniającej na średnią ( ) i powiązaną wartość p dla k (\ text {input}) = 0 , coś w stylu:μ k ( wejście ) = 0kμk(input)=0

Mu link function:  logit                                               
Mu Coefficients:                                                      
              Estimate  Std. Error  t value   Pr(>|t|)                  
(Intercept)  -2.58051     0.03766  -68.521  0.000e+00                  
input        -0.09134     0.01683   -5.428  6.118e-08

Jak widać w powyższym przykładzie, hipoteza k(input)=0 jest odrzucana z dużą pewnością.

Następnie uruchamiam model zerowy: null = gamlss(response ~ 1, family=BEZI)i porównuję prawdopodobieństwa za pomocą testu współczynnika wiarygodności:

p=1-pchisq(-2*(logLik(null)[1]-logLik(mymodel)[1]), df(mymodel)-df(null)).

W wielu przypadkach otrzymuję p>0.05 nawet jeśli współczynniki na wejściu są zgłaszane jako bardzo znaczące (jak wyżej). Uważam to za dość niezwykłe - przynajmniej nigdy nie zdarzyło się to w moim doświadczeniu z regresją liniową lub logistyczną (w rzeczywistości nigdy nie zdarzyło się to, gdy używałem gamma skorygowanej do zera).

Moje pytanie brzmi: czy nadal mogę ufać zależności między odpowiedzią a danymi wejściowymi, gdy tak jest?

a11msp
źródło

Odpowiedzi:

1

Nie widzę bezpośredniego powodu, dla którego miałoby to być związane z GAM. Faktem jest, że używasz dwóch testów do tego samego. Ponieważ w statystykach nie ma absolutnej pewności, bardzo możliwe jest, aby jeden dał znaczący wynik, a drugi nie.

Być może jeden z dwóch testów jest po prostu bardziej wydajny (ale może opiera się na kilku innych założeniach), a może pojedynczy znaczący jest twoim błędem typu „jeden na dwadzieścia”.

Dobrym przykładem są testy na to, czy próbki pochodzą z tego samego rozkładu: masz na to bardzo testy parametryczne (test T to taki, którego można użyć do tego: jeśli średnie są różne, podobnie powinny być rozkłady), a także nieparametryczne jeden: może się zdarzyć, że parametryczny daje znaczący wynik, a nieparametryczny nie. Może to być spowodowane założenia parametrycznego testu są fałszywe, ponieważ dane jest po prostu nadzwyczajny (typ I), albo dlatego, że wielkość próbki nie jest wystarczająca dla nieparametryczny test odebrać różnicę, albo wreszcie, bo w aspekcie z to, co naprawdę chcesz przetestować (różne rozkłady), które jest sprawdzane przez różne testy, jest po prostu inne (różne oznaczają <-> szansę na bycie „wyższym niż”).

Jeśli jeden wynik testu pokazuje znaczące wyniki, a drugi jest tylko nieznacznie nieistotny, nie martwiłbym się zbytnio.

Nick Sabbe
źródło