Pearson VS Deviance Residuals w regresji logistycznej

16

Wiem, że znormalizowane pozostałości Pearson uzyskuje się w tradycyjny probabilistyczny sposób:

rja=yja-πjaπja(1-πja)

i Pozostałości dewiacji są uzyskiwane w bardziej statystyczny sposób (udział każdego punktu w prawdopodobieństwie):

di=si2[yilogπi^+(1yi)log(1πi)]

gdzie si = 1 jeśli yi = 1 oraz si = -1 jeśli yi = 0.

Czy możesz mi intuicyjnie wyjaśnić, jak interpretować wzór na resztki odchyleń?

Co więcej, jeśli chcę wybrać jeden, który jest bardziej odpowiedni i dlaczego?

BTW, niektóre referencje twierdzą, że otrzymujemy wartości odchylenia na podstawie tego terminu

12ri2

gdzie jest wspomniany powyżej.ri

Jack Shi
źródło
Będziemy wdzięczni za wszelkie przemyślenia
Jack Shi,
1
Kiedy mówisz „niektóre referencje” ... które referencje i jak to robią?
Glen_b

Odpowiedzi:

10

Regresja logistyczna dąży do maksymalizacji funkcji prawdopodobieństwa logarytmu

LL=kln(Pi)+rln(1Pi)

gdzie jest przewidywane prawdopodobieństwo przypadku i jest Y = 1 ; k oznacza liczbę przypadków obserwowano Y = 1 , a R jest liczbą (reszta) przypadkach obserwowano Y = 0 .PiY^=1kY=1rY=0

To wyrażenie jest równe

LL=(kdi2+rdi2)/2

ponieważ rezydualne odchylenie przypadku jest zdefiniowane jako:

di={2ln(Pi)if Yi=12ln(1Pi)if Yi=0

Zatem binarna regresja logistyczna dąży bezpośrednio do zminimalizowania sumy kwadratów odchyleń odchylenia. Resztki dewiacji są implikowane w algorytmie ML regresji.

2(LLfull modelLLreduced model)

ttnphns
źródło