Podejścia Bayesa i Fishera do liniowej analizy dyskryminacyjnej

10

Znam 2 podejścia do zrobienia LDA, podejście bayesowskie i podejście Fishera .

Załóżmy, że mamy dane (x,y) , gdzie x jest predyktorem p wymiarowym, a y jest zmienną zależnąKklas K.

Metodą bayesowską obliczamy tylne

p(yk|x)=p(x|yk)p(yk)p(x)p(x|yk)p(yk)
, i jak powiedziano w książkach, zakładamy, żep(x|yk)jest gaussowską, mamy teraz funkcję dyskryminacyjną dlaktej klasy jako, widzę, żefk(x)jest funkcją liniowąx, więc dla wszystkichklasKmamyKliniowych funkcji dyskryminacyjnych.
fk(x)=lnp(x|yk)+lnp(yk)=ln[1(2π)p/2|Σ|1/2exp(12(xμk)TΣ1(xμk))]+lnp(yk)=xTΣ1μk12μkTΣ1μk+lnp(yk)
fk(x)xKK

Jednak zgodnie z podejściem Fishera staramy się rzutować na przestrzeń wymiarową ( K - 1 ), aby wyodrębnić nowe funkcje, które minimalizują wariancję wewnątrz klasy i maksymalizują wariancję między klasami , powiedzmy, że macierz projekcji to Wx(K1)W a każda kolumna jest projekcją kierunek. To podejście bardziej przypomina technikę zmniejszania wymiarów .

Moje pytania są

(1) Czy możemy zredukować wymiary, stosując podejście Bayesa? To znaczy, możemy zastosować podejście bayesowskie do dokonania klasyfikacji, znajdując funkcje dyskryminacyjne które dają największą wartość dla nowego x , ale czy te funkcje dyskryminacyjne f k ( x ) mogą być użyte do rzutowania xfk(x)xfk(x)x na niższe wymiary podprzestrzeń? Podobnie jak podejście Fishera .

(2) Czy i jak te dwa podejścia odnoszą się do siebie? Nie widzę między nimi żadnej zależności, ponieważ jedna wydaje się być w stanie dokonać klasyfikacji z wartością , a druga ma na celu przede wszystkim redukcję wymiarów.fk(x)

AKTUALIZACJA

Dzięki @amoeba, według książki ESL, znalazłem to: wprowadź opis zdjęcia tutaj

i jest to liniowa funkcja dyskryminacyjna, wyprowadzona z twierdzenia Bayesa plus przy założeniu, że wszystkie klasy mają tę samą macierz kowariancji . I ta funkcja dyskryminacyjna jest taki sam, jak jeden f k ( x ) pisałem powyżej.Σfk(x)

Czy mogę użyć jako kierunku rzutowania x , aby wykonać redukcję wymiarów? Nie jestem tego pewien, ponieważ od AFAIK redukcję wymiarów uzyskuje się poprzez wykonanieΣ1μkx analizy wariancji pomiędzy .

PONOWNIE AKTUALIZACJA

Z sekcji 4.3.3 wyprowadzono te prognozy:

wprowadź opis zdjęcia tutaj

i oczywiście zakłada wspólną kowariancję między klasami, czyli wspólną macierz kowariancji (dla kowariancji wewnątrz klasy)W , prawda? Mój problem polega na tym, jak obliczyć to z danych? Ponieważ miałbym K różnych macierzy kowariancji wewnątrz klasy, gdybym spróbował obliczyć W z danych. Więc muszę połączyć wszystkie klasy kowariancji razem do uzyskania jednego wspólnego?WKW

awokado
źródło
1
Twoje pytanie łączy dwie rzeczy. Myślę, że nie przetrawiłeś naszej rozmowy nad poprzednim pytaniem. To, co opisujesz jako pierwsze, to bayesowskie podejście do klasyfikacji (nie „bayesowskie podejście do LDA”). To podejście można zastosować (1) z oryginalnymi zmiennymi jako klasyfikatorami lub (2) z dyskryminatorami uzyskanymi w LDA jako klasyfikatory. Jakie jest zatem podejście Fishera?
ttnphns
1
(Cd.) Cóż, „LDA Fishera” to po prostu LDA z K = 2. Dokonując klasyfikacji w ramach takiej LDA, Fisher wynalazł własne formuły klasyfikacji. Te formuły mogą działać również dla K> 2. Jego metoda klasyfikacji jest obecnie rzadko stosowana, ponieważ podejście Bayesa jest bardziej ogólne.
ttnphns
1
@ttnphns, powodem, dla którego jestem zdezorientowany, jest to, że prawie każda książka, o której mówiłem, mówi o LDA wykorzystując to bayesowskie podejście, wykładając LDA jako model generatywny, nie wspominają o stosunku wariancji między grupami do vairance grupy .
awokado
1
@loganecolss: Czy widziałeś poniżej moją odpowiedź? Czy masz jakieś pytania na ten temat? Jestem trochę zdezorientowany, ponieważ myślałem, że wyjaśniłem, o co teraz pytasz w komentarzach. Podejście „między wariancjami” jest matematycznie równoważne z „podejściem bayesowskim” przy założeniu równych kowariancji. Jeśli chcesz, możesz to potraktować jako zaskakujące twierdzenie matematyczne. Dowód znajduje się w książce Hastie, która jest bezpłatnie dostępna online, a także w niektórych innych podręcznikach do nauki maszyn. Nie jestem więc pewien, co może oznaczać „jedyny autentyczny sposób realizacji LDA”; te dwa identyczne sposoby.
ameba
1
@loganecolss: Uwierz mi, są one równoważne :) Tak, powinieneś być w stanie wyprowadzić prognozy, ale potrzebujesz dodatkowego założenia o równych macierzach kowariancji (jak napisałem w mojej odpowiedzi). Zobacz mój komentarz poniżej.
ameba

Odpowiedzi:

11

Podam tylko krótką nieformalną odpowiedź i odsyłam do sekcji 4.3 elementów statystycznego uczenia się, aby uzyskać szczegółowe informacje.

Aktualizacja: „Elementy” obejmują bardzo szczegółowo dokładnie te pytania, które zadajesz tutaj, w tym to, co napisałeś w aktualizacji. Odpowiednią sekcją jest 4.3, w szczególności 4.3.2–4.3.3.

(2) Czy i jak te dwa podejścia odnoszą się do siebie?

x do środka każdej klasy.

xx

Ważnym wnioskiem jest to, że równania znacznie się upraszczają, jeśli założymy, że wszystkie klasy mają identyczną kowariancję [ Aktualizacja: założymy, jeśli założono to przez cały czas, mogło to być częścią nieporozumienia] . W takim przypadku granice decyzji stają się liniowe i dlatego ta procedura nazywa się liniową analizą dyskryminacyjną, LDA.

Potrzebne są pewne manipulacje algebraiczne, aby zdać sobie sprawę, że w tym przypadku formuły faktycznie stają się dokładnie równoważne z tym, co wypracował Fisher stosując swoje podejście. Pomyśl o tym jak o twierdzeniu matematycznym. Zobacz podręcznik Hastie dla całej matematyki.

(1) Czy możemy zredukować wymiary, stosując podejście Bayesa?

Jeśli przez „podejście bayesowskie” masz na myśli radzenie sobie z różnymi macierzami kowariancji w każdej klasie, to nie. Przynajmniej nie będzie to liniowa redukcja wymiarów (w przeciwieństwie do LDA), z powodu tego, co napisałem powyżej.

Σ1μkkΣ1MMμk

ameba
źródło
1
+1. Mógłbym również link do mojej własnej odpowiedzi wspominającej statystyki QDA.stackexchange.com/a/71571/3277 .
ttnphns
X
Σ
fk(x)fk(x)xΣ1μk
Aktualizuję swój post, dodając klip z sekcji 4.3
awokado