Czy w GLM prawdopodobieństwo dziennika modelu nasyconego zawsze wynosi zero?

14

Jako część danych wyjściowych uogólnionego modelu liniowego do oceny modelu wykorzystywane są odchylenie zerowe i rezydualne. Często widzę formuły dla tych wielkości wyrażone jako prawdopodobieństwo dziennika modelu nasyconego, na przykład: /stats//a/113022/22199 , Regresja logistyczna: jak uzyskać model nasycony

Model nasycony, o ile rozumiem, jest modelem, który doskonale pasuje do obserwowanej odpowiedzi. Dlatego w większości miejsc, które widziałem, prawdopodobieństwo logarytmiczne nasyconego modelu jest zawsze podawane jako zero.

Jednak sposób, w jaki podawana jest formuła dewiacji, sugeruje, że czasami ta liczba nie jest równa zero. (Jakby zawsze było zero, po co zawracać sobie tym głowę?)

W jakich przypadkach może być różna od zera? Jeśli nigdy nie jest różna od zera, to po co uwzględniać ją w formule dewiacji?

Alex
źródło

Odpowiedzi:

18

Jeśli naprawdę miałeś na myśli prawdopodobieństwo dziennika , odpowiedź brzmi: nie zawsze jest to zero.

Weźmy na przykład dane Poissona: . Prawdopodobieństwo dziennika dla jest określone przez: Y = ( y 1 , , y n ) ( μ ; Y ) = - n i = 1 μ i + n i = 1 y i log μ i - n i = 1 logyiPoisson(μi),i=1,,nY=(y1,,yn)

()(μ;Y)=i=1nμi+i=1nyilogμii=1nlog(yi!).

Zróżnicuj w względem i ustaw na (w ten sposób otrzymujemy MLE dla modelu nasyconego): rozwiązać ten problem za uzyskać zastępując powrotem do dla daje że Log-Likelihood nasyconego modelu to: chyba że weźmiesz specjalnego wartości.( ) μ i 0 - 1 + y i(μ;Y)()μi0μi μ I=Yi μ I(*)μi

1+yiμi=0.
μiμ^i=yiμ^i()μiy i
(μ^;Y)=i=1nyi(logyi1)i=1nlog(yi!)0
yi

Na stronie pomocy Rfunkcji glmpod pozycją deviancedokument wyjaśnia ten problem w następujący sposób:

deviance do stałej, minus dwukrotność maksymalnego prawdopodobieństwa logarytmu. Tam, gdzie jest to uzasadnione, wybrana jest stała, aby model nasycony miał zero odchyleń.

Zauważ, że wspomniano, że odchylenie zamiast logarytmu prawdopodobieństwa modelu nasyconego jest wybrane na zero.

Prawdopodobnie tak naprawdę chciałeś potwierdzić, że „ odchylenie nasyconego modelu jest zawsze podawane jako zero”, co jest prawdą, ponieważ odchylenie jest z definicji (patrz rozdział 4.5.1 analizy jakościowej danych (wydanie 2) Alana Agresti) to statystyka stosunku prawdopodobieństwa określonego GLM do modelu nasyconego. Wyżej constantwspomniane w dokumentacji R jest w rzeczywistości dwukrotnością maksymalnego logarytmu prawdopodobieństwa modelu nasyconego.

Jeśli chodzi o stwierdzenie „Jednak sposób, w jaki podano formułę dewiacji, sugeruje, że czasami ta liczba nie jest równa zero”, prawdopodobnie wynika to z nadużycia użycia terminu dewiacja . Na przykład, w R, statystyczny współczynnik prawdopodobieństwa porównywania dwóch dowolnych (zagnieżdżone) Modele i jest również określana jako odchyleniu, co będzie bardziej dokładnie określanej jako z różnicy pomiędzy odchyleniu od i odchyleniu od , jeżeli ściśle przestrzegał definicji podanej w książce Agresti.M 2 M 1 M 2M1M2M1M2

Wniosek

  1. Prawdopodobieństwo logiczne nasyconego modelu jest zasadniczo niezerowe.

  2. Odchylenie (w oryginalnej definicji) modelu nasyconego wynosi zero.

  3. Odchyleniem wyjściowy oprogramowanie (takie jak R) jest na ogół tak niezerowych w rzeczywistości oznacza co innego (różnica pomiędzy odchyleń).


Poniżej przedstawiono pochodną dla ogólnego przypadku rodziny wykładniczej i inny konkretny przykład. Załóżmy, że dane pochodzą z rodziny wykładniczej (patrz Modern Applied Statistics with S , Rozdział ): gdzie są znanymi wcześniejszymi wagami, a to parametr dyspersji / skali (w wielu przypadkach, takich jak dwumianowy i Poisson, ten parametr jest znany, podczas gdy w innych przypadkach, takich jak normalny i Gamma, ten parametr jest nieznany). Następnie prawdopodobieństwo logarytmu podaje: f (7

(1)f(yi;θi,φ)=exp[Ai(yiθiγ(θi))/φ+τ(yi,φ/Ai)].
Aiφ
(θ,φ;Y)=i=1nAi(yiθiγ(θi))/φ+i=1nτ(yi,φ/Ai).
Tak jak w przykładzie Poissona, parametry modelu nasyconego można oszacować, rozwiązując następującą funkcję punktacji :
0=U(θi)=(θ,φ;Y)θi=Ai(yiγ(θi))φ

Oznacz rozwiązanie powyższego równania wzorem , wtedy ogólna postać logarytmu prawdopodobieństwa modelu nasyconego (traktuj parametr skali jako stałą) to: ( θθ^i

()(θ^,φ;Y)=i=1nAi(yiθ^iγ(θ^i))/φ+i=1nτ(yi,φ/Ai).

W mojej poprzedniej odpowiedzi błędnie stwierdziłem, że pierwszy termin po prawej stronie jest zawsze równy zero, powyższy przykład danych Poissona dowodzi, że jest on błędny. Aby uzyskać bardziej skomplikowany przykład, rozważ rozkład gamma podany w dodatku.()Γ(α,β)


Dowód pierwszego terminu w logarytmicznym prawdopodobieństwie nasycenia modelu gamma jest niezerowy : Biorąc pod uwagę musimy najpierw przeprowadzić ponowną parametryzację, aby miało wykładniczą postać rodziny . Można to zweryfikować, jeśli pozwalając wówczas ma reprezentację: gdzie

f(y;α,β)=βαΓ(α)eβyyα1,y>0,α>0,β>0,
f(1)
φ=1α,θ=βα,
f
f(y;θ,φ)=exp[θy(log(θ))φ+τ(y,φ)],
τ(y,φ)=logφφ+(1φ1)logylogΓ(φ1).
Dlatego MLE modelu nasyconego to . Stąd chyba że przyjmą bardzo specjalne wartości.θ^i=1yi
i=1n1φ[θ^iyi(log(θ^i))]=i=1n1φ[1log(yi)]0,
yi
Zhanxiong
źródło
1
Czy logarytmiczność wynosi zero wtedy i tylko wtedy, gdy model może przypisać 100% prawdopodobieństwa każdemu z możliwych wyników?
Alex
Nie do końca rozumiem, co miałeś na myśli. Ale z mojej pochodnej można wywnioskować, że wynosi wtedy i tylko wtedy, gdy jest identycznie i nie ma parametru dyspersji. 0τ0
Zhanxiong,
Twoje pochodzenie jest bardzo dobre, ale formalny dowód jest obecnie nieco ponad moją głową. Dziękujemy za przykład z modelem Poissona. Z tego przykładu wyjąłem to, że model Poissona nie może przypisać 100% prawdopodobieństwa obserwowanemu wynikowi, biorąc pod uwagę jakąkolwiek wartość średniej Poissona, a zatem prawdopodobieństwo nie może wynosić zero.
Alex
Stwierdzenie „model przypisuje prawdopodobieństwa obserwowanemu wynikowi” wydaje mi się dziwne. Czy masz na myśli to, że biorąc pod uwagę obserwacje , a jeśli jest zmienną losową Poissona, ? 100%y1,,ynYP(Y=y1)+P(Y=y2)++P(Y=yn)<1
Zhanxiong,
1
Chodzi mi o to, że jeśli jest zmienną losową Poissona, to dla dowolnej wartości lub Poissona, dlatego nie można znaleźć żadnego parametru modelu, który dałby logarytmiczne prawdopodobieństwo zerowe dla obserwowanego . Może zupełnie nie rozumiem koncepcji nasyconego modelu. YP(Y=yi)<1i
Alex
4

Odpowiedź Zhanxionga jest już świetna (+1), ale tutaj jest szybki pokaz, że prawdopodobieństwo logarytmu modelu nasyconego wynosi dla regresji logistycznej. Pomyślałem, że opublikuję, ponieważ nie widziałem tego TeX-a na tej stronie i ponieważ właśnie napisałem to na wykład.0

Prawdopodobieństwo to gdzie .

(1)L(y;X,β)=i=1nf(yi;xi,β)=i=1nπiyi(1πi)1yi=i=1n(πi1πi)yi(1πi)
πi=invlogit(xiβ)

Prawdopodobieństwo dziennika to

logL(y;X,β)=i=1nyilog(πi1πi)+log(1πi)=i=1nyilogit(πi)+log(1πi)=i=1nyixiβ+log(1invlogit(xiβ))=i=1nyixiβ+log(invlogit(xiβ))=i=1nyixiβlog(1+exp[xiβ]))

Jeśli weźmiesz pochodne w odniesieniu do wszystkich współczynników, otrzymasz

(2)(β)=i=1nyixiexp[xiβ](1+exp[xiβ])xi.

Ustawienie tego wyrażenia na i rozwiązanie da ci odpowiedź. Zwykle nie można tego zrobić analitycznie, co tłumaczy popularność / konieczność stosowania algorytmów iteracyjnych w celu dopasowania do tego modelu, ale w przypadku modelu nasyconego jest to możliwe.0β

Aby znaleźć model nasycony, podajemy każdy wiersz jego własny współczynnik. Więc a macierz projektowa razy wektor współczynnika to βRn

Xβ=[100010001][β1β2βn].

Zwróć uwagę, że w szczególności .xiβ=βi

Biorąc ty wiersz równania (2) daje nam j

i=1nyixi,j=i=1nexp[xiβ](1+exp[xiβ])xi,j

który może być tylko prawda, jeśli dla każdej obserwacji :i

yi=invlogit(βi)
lub innymi słowy każdy ma wartość plus lub minus nieskończoność (jeśli wynosi odpowiednio lub ). Możemy podłączyć te parametry z powrotem do (1), aby uzyskać maksymalne prawdopodobieństwo: Oczywiście log tego wynosi .βiyi10
i=1nπ^iyi(1π^i)1yi=1n=1.
0

Taylor
źródło
Ale zakłada to niepogrupowane dane . Jeśli masz grupy o (i tych samych wartościach zmiennych towarzyszących) (w R, na przykład przy użyciu formularza ), wówczas model nasycony nie ma logarytmu zero. ni>1glm( cbind(k, n-k) ~ x + ...
kjetil b halvorsen
@kjetilbhalvorsen oh good point. Nigdy nie próbowałem, żebym mógł sprawdzić
Taylor
1

@Alex: tak, zgadza się. przynajmniej dla dyskretnych rozkładów. dla ciągłych rozkładów sprowadzałoby się to do dopuszczenia, aby gęstość była równa 1, co niekoniecznie jest znaczące, a zatem nie jest rozsądną rzeczą do osiągnięcia. nieco bardziej ogólnie, logarytmiczne prawdopodobieństwo modelu nasyconego daje górną granicę wydajności dowolnego modelu, który jest zgodny z założeniem podstawowej rodziny dystrybucji. Innymi słowy, prawdopodobieństwo logarytmiczne nasyconego modelu dwumianowego jest „tak dobre, jak to możliwe” dla danego zestawu danych (X, Y) przy założeniu, że Y jest dwumianowy. Sensowne jest porównanie twojego modelu glm z tą górną granicą w przeciwieństwie do, powiedzmy, 100% (lub podobnego), ponieważ twój model jest z natury ograniczony przez twoje założenie dotyczące rozkładu odpowiedzi.

bettmensch88
źródło