Dlaczego regresja logistyczna jest klasyfikatorem liniowym?

49

Skoro używamy funkcji logistycznej do przekształcania liniowej kombinacji danych wejściowych w nieliniowe dane wyjściowe, w jaki sposób regresję logistyczną można uznać za klasyfikator liniowy?

Regresja liniowa jest jak sieć neuronowa bez warstwy ukrytej, więc dlaczego sieci neuronowe są uważane za klasyfikatory nieliniowe, a regresja logistyczna jest liniowa?

Jack Twain
źródło
7
Przekształcenie „liniowej kombinacji wejścia do wyjścia nieliniowego” jest podstawowym elementem definicji z klasyfikatora liniowy . To sprowadza to pytanie do drugiej części, co sprowadza się do wykazania, że ​​sieci neuronowe zasadniczo nie mogą być wyrażone jako klasyfikatory liniowe.
whuber
1
@ whuber: Jak wyjaśnić fakt, że model regresji logistycznej może przyjmować wielomianowe zmienne predykcyjne (np. ) w celu uzyskania nieliniowej granicy decyzji? Czy to wciąż klasyfikator liniowy? w1x12+w2x23
stackoverflowuser2010
4
@Stack Wydaje się, że koncepcja „klasyfikatora liniowego” pochodzi od koncepcji modelu liniowego. „Liniowość” w modelu może przybierać różne formy, jak opisano na stronie stats.stackexchange.com/a/148713 . Jeśli zaakceptujemy klasyfikację liniową klasyfikatorów w Wikipedii , wówczas twój przykład wielomianowy byłby postrzegany jako nieliniowy pod względem podanych „cech” i x 2, ale byłby liniowy pod względem cech x 2 1 i x 3 2x1x2x12x23 . To rozróżnienie stanowi użyteczny sposób wykorzystania właściwości liniowości.
whuber
1
Nadal jestem nieco zdezorientowany, czy granica decyzji klasyfikatora logistycznego jest liniowa? Uczestniczyłem w kursie uczenia maszynowego Andrew Ng na Coursera i wspomniał o następujących rzeczach:! [Wprowadź opis zdjęcia tutaj ] ( i.stack.imgur.com/gHxfr.png ) Tak więc wydaje mi się, że nikt nie odpowiada na to pytanie zależy od liniowości lub nieliniowości granicy decyzji, która zależy od funkcji Hipoteza zdefiniowanej jako Htheta (X), gdzie X jest wejściem, a Theta to zmienne naszego problemu. Czy to ma dla ciebie sens?
brokensword

Odpowiedzi:

42

Regresja logistyczna jest liniowa w tym sensie, że przewidywania można zapisać jako p = 1 A zatem, przewidywanie może być napisany w zakresie ľ , który jest liniową funkcjąX. (Dokładniej, przewidywany logarytmiczny iloraz jest funkcją liniowąx.)

p^=11+eμ^, where μ^=θ^x.
μ^xx

I odwrotnie, nie ma sposobu, aby podsumować wynik sieci neuronowej pod względem funkcji liniowej , i dlatego sieci neuronowe nazywane są nieliniowymi.x

Ponadto, dla regresji logistycznej, decyzja granica liniowa: to rozwiązanie θx = 0 . Granica decyzyjna sieci neuronowej zasadniczo nie jest liniowa.{x:p^=0.5}θ^x=0

Stefan Wager
źródło
2
Jak dotąd odpowiedź jest dla mnie najbardziej przejrzysta i nieskomplikowana. Ale jestem trochę zmieszany. Niektórzy twierdzą, że predykat logarytmiczny jest funkcją liniową a inni twierdzą, że jest to funkcja liniowa θ . Więc?! xθ
Jack Twain
1
to także przez twoje wyjaśnienie. Czy możemy powiedzieć, że predykcja sieci neuronowej jest liniową funkcją aktywacji ostatniej ukrytej warstwy?
Jack Twain
2
θ^xθ^xxx
3
xx
3
@Pegah Wiem, że to stare, ale: regresja logistyczna ma liniową granicę decyzyjną. Sam ouptut nie jest oczywiście liniowy, jego logistyka. W zależności od tego, po której stronie linii spada punkt, całkowita moc wyjściowa zbliży się (ale nigdy nie osiągnie) odpowiednio 0 lub 1. I aby dodać do odpowiedzi Stefana Wagnersa: ostatnie zdanie nie jest całkowicie poprawne, sieć neuronowa jest nieliniowa, gdy zawiera nieliniowe aktywacje lub funkcje wyjściowe. Ale może być również liniowy (na wypadek, gdyby nie dodano żadnych nieliniowości).
Chris
20

Jak zauważa Stefan Wagner, granica decyzyjna dla klasyfikatora logistycznego jest liniowa. (Klasyfikator wymaga, aby dane wejściowe były liniowo rozdzielne.) Chciałem rozwinąć matematykę, na wypadek, gdyby nie było to oczywiste.

11+eθx=0.5

1=eθx

i biorąc naturalny log z obu stron,

0=θx=i=0nθixi

więc granica decyzji jest liniowa.

Powodem, dla którego granica decyzyjna dla sieci neuronowej nie jest liniowa, jest to, że istnieją dwie warstwy funkcji sigmoidalnych w sieci neuronowej: jedna w każdym z węzłów wyjściowych oraz dodatkowa funkcja sigmoidalna do łączenia i progowania wyników każdego węzła wyjściowego.

Phil Bogle
źródło
2
W rzeczywistości można uzyskać nieliniową granicę decyzyjną z aktywacją tylko jednej warstwy. Zobacz standardowy przykład XOR z 2-warstwową siecią przesyłania dalej.
James Hirschorn,
5

C0C1

P(C0|x)=P(x|C0)P(C0)P(x)
P(C0|x)=P(x|C0)P(C0)P(x|C0)P(C0)+P(x|C1)P(C1)=11+exp(logP(x|C0)P(x|C1)logP(C0)P(C1))
1+eωx

P(x|Ci)=exp(θixb(θi)a(ϕ)+c(x,ϕ))
logP(x|C0)P(x|C1)=[(θ0θ1)xb(θ0)+b(θ1)]/a(ϕ)

Zauważ, że zakładamy, że obie dystrybucje należą do tej samej rodziny i mają te same parametry dyspersji. Ale przy takim założeniu regresja logistyczna może modelować prawdopodobieństwa dla całej rodziny rozkładów wykładniczych.

jpmuc
źródło