Jak obliczyć pseudo

46

Opis Christophera Manninga dotyczący regresji logistycznej w R pokazuje regresję logistyczną w R w następujący sposób:

ced.logr <- glm(ced.del ~ cat + follows + factor(class), 
  family=binomial)

Niektóre dane wyjściowe:

> summary(ced.logr)
Call:
glm(formula = ced.del ~ cat + follows + factor(class),
    family = binomial("logit"))
Deviance Residuals:
Min            1Q    Median       3Q      Max
-3.24384 -1.34325   0.04954  1.01488  6.40094

Coefficients:
              Estimate Std. Error z value Pr(>|z|)
(Intercept)   -1.31827    0.12221 -10.787 < 2e-16
catd          -0.16931    0.10032  -1.688 0.091459
catm           0.17858    0.08952   1.995 0.046053
catn           0.66672    0.09651   6.908 4.91e-12
catv          -0.76754    0.21844  -3.514 0.000442
followsP       0.95255    0.07400  12.872 < 2e-16
followsV       0.53408    0.05660   9.436 < 2e-16
factor(class)2 1.27045    0.10320  12.310 < 2e-16
factor(class)3 1.04805    0.10355  10.122 < 2e-16
factor(class)4 1.37425    0.10155  13.532 < 2e-16
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 958.66 on 51 degrees of freedom
Residual deviance: 198.63 on 42 degrees of freedom
AIC: 446.10
Number of Fisher Scoring iterations: 4

Następnie szczegółowo opisuje interpretację współczynników, porównanie różnych modeli i tak dalej. Całkiem użyteczne.

Jaką jednak wariancję uwzględnia model? Strona Stata na regresji logistycznej mówi:

Technicznie, nie mogą być obliczane w ten sam sposób w regresji logistycznej, jak to jest regresję OLS. Pseudo R 2 , w regresji logistycznej, jest zdefiniowana jako 1 - L 1R2R2 , gdzieL0reprezentuje prawdopodobieństwo dziennika dla modelu „tylko stałego”, aL1jest prawdopodobieństwem dziennika dla pełnego modelu ze stałą i predyktorami.1L1L0L0L1

Rozumiem to na wysokim poziomie. Model tylko stałej byłby bez żadnego parametru (tylko termin przechwytujący). Prawdopodobieństwo dziennika jest miarą tego, jak ściśle parametry pasują do danych. W rzeczywistości, Manning rodzaj podpowiedzi, że dewiacja może być . Być może odchylenie zerowe jest tylko stałe, a odchylenie resztkowe wynosi - 2 log L modelu? Jednak nie jestem w tym krystalicznie czysty.2logL2logL

Czy ktoś może sprawdzić, jak faktycznie wylicza jeden pseudo- w R korzystając z tego przykładu?R2

dfrankow
źródło
5
Zwykle doskonałe strony obliczeń statystycznych UCLA popełniły tutaj rzadki błąd - w wyrażeniu dla pseudo- nie powinno być nawiasów , tzn. Powinno to być 1 - L 1 / L 0 . (Przepraszam, że nie odpowiadam na wasze pytania, bo mam zamiar iść do łóżka - jestem pewien, że ktoś inny odpowie na to, zanim się obudzę.)R21L1/L0
onestop
3
Ta strona omawia kilka pseudo-R ^ 2.
dfrankow
2
Uwaga: powiązane pytanie nie lubi żadnych pseudo-R ^ 2, ale preferuje krzyżową weryfikację lub przewidywanie testu wstrzymania.
dfrankow

Odpowiedzi:

49

Nie zapomnij o pakiecie rms autorstwa Franka Harrella. Znajdziesz wszystko, czego potrzebujesz do dopasowania i sprawdzania poprawności GLM.

Oto przykład zabawki (z tylko jednym predyktorem):

set.seed(101)
n <- 200
x <- rnorm(n)
a <- 1
b <- -2
p <- exp(a+b*x)/(1+exp(a+b*x))
y <- factor(ifelse(runif(n)<p, 1, 0), levels=0:1)
mod1 <- glm(y ~ x, family=binomial)
summary(mod1)

Daje to:

Coefficients:
            Estimate Std. Error z value Pr(>|z|)    
(Intercept)   0.8959     0.1969    4.55 5.36e-06 ***
x            -1.8720     0.2807   -6.67 2.56e-11 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1 

(Dispersion parameter for binomial family taken to be 1)

    Null deviance: 258.98  on 199  degrees of freedom
Residual deviance: 181.02  on 198  degrees of freedom
AIC: 185.02

Teraz za pomocą lrmfunkcji

require(rms)
mod1b <- lrm(y ~ x)

R2print(mod1b)

Logistic Regression Model

lrm(formula = y ~ x)

                      Model Likelihood     Discrimination    Rank Discrim.    
                         Ratio Test            Indexes          Indexes       

Obs           200    LR chi2      77.96    R2       0.445    C       0.852    
 0             70    d.f.             1    g        2.054    Dxy     0.705    
 1            130    Pr(> chi2) <0.0001    gr       7.801    gamma   0.705    
max |deriv| 2e-08                          gp       0.319    tau-a   0.322    
                                           Brier    0.150                     


          Coef    S.E.   Wald Z Pr(>|Z|)
Intercept  0.8959 0.1969  4.55  <0.0001 
x         -1.8720 0.2807 -6.67  <0.0001 

R2=0.445(1exp(LR/n))/(1exp((2L0)/n))χ2R2LR=2L0R2=1

Ręcznie,

> mod0 <- update(mod1, .~.-x)
> lr.stat <- lrtest(mod0, mod1)
> (1-exp(-as.numeric(lr.stat$stats[1])/n))/(1-exp(2*as.numeric(logLik(mod0)/n)))
[1] 0.4445742
> mod1b$stats["R2"]
       R2 
0.4445742 

R2R2c

chl
źródło
Czy możesz wyjaśnić, w jaki sposób zdobyłeś .445? Użyłem 1-exp (-77,96 / 200), ale dostałem 0,323. Co robię źle? Dzięki.
2
Który to Nagelkerke R2?
JetLag,
1
@JetLag Pod indeksami dyskryminacji Nagelkerke jest skracany jako R2 (tj. 0,445). Możesz to sprawdzić za pomocą funkcji NagelkerkeR2 () z pakietu fmsb.
Chernoff
11

R2

użytkownik48729
źródło
7

R2

R2RM2=1lnL^fulllnL^nulllnL^fulllnL^full

R2

  1. deviance=2ln(Lfull)null.deviance=2ln(Lnull)

    pR2 = 1 - mod$deviance / mod$null.deviance # works for glm

Ale powyższe podejście nie działa w przypadku Pseudo poza próbąR2

  1. Użyj funkcji „logLik” w R i definicji (działa również w próbie)

    mod_null <- glm(y~1, family = binomial, data = insample) 1- logLik(mod)/logLik(mod_null)

R2

Przykład:

pseudo-R poza próbą

R2

Rp2=1Lest.outLnull.out,
Lest.outLnull.out

Kody:

pred.out.link <- predict(mod, outSample, type = "link") mod.out.null <- gam(Default~1, family = binomial, data = outSample) pR2.out <- 1 - sum(outSample$y * pred.out.link - log(1 + exp(pred.out.link))) / logLik(mod.out.null)

Xiaorui Zhu
źródło
deviance=2ln(Lfull)model1 <- glm(cbind(ncases, ncontrols) ~ agegp + tobgp * alcgp, data = esoph, family = binomial)model1$deviance-2*logLik(model1)
6

jeśli odchylenie było proporcjonalne do prawdopodobieństwa dziennika, a jedna z nich używa definicji (patrz na przykład McFadden tutaj )

pseudo R^2 = 1 - L(model) / L(intercept)

R21198.63958.66

Pytanie brzmi: czy zgłaszane odchylenie jest proporcjonalne do logarytmu prawdopodobieństwa?

dfrankow
źródło
3
Ten pseudo-R ^ 2 wcale nie zgadza się z odpowiedzią Nagelkerke R ^ 2 z @ chl.
dfrankow
Odchylenie zostało zdefiniowane jako -2 * LL, kiedy byłem w szkole.
DWin
@dfrankow nie zgadza się, ponieważ Nagelkerke jest normalizacją Coxa i Snell R2, która różni się od McFaddensa R2.
colin
0

R2R2=1llfullllconstantllfullllconstant

R2R2=1i(yiy^i)2i(yiy¯train)2i(yiy¯train)2y¯traini(yiβ0)2β^0=y¯trainR2R2

cthraves
źródło