Klasyfikator Naive Bayes jest klasyfikatorem, który przypisuje przedmioty do klasy oparciu o maksymalizację tylnego dla członkostwa w klasie i zakłada, że cechy przedmiotów są niezależne.C P ( C | x )
Strata 0-1 to strata, która przypisuje każdej błędnej klasyfikacji stratę „1”, a stratę „0” dowolnej poprawnej klasyfikacji.
Często czytam (1), że klasyfikator „Naive Bayes” jest optymalny dla straty 0-1. Dlaczego to prawda?
(1) Jedno przykładowe źródło: klasyfikator Bayesa i błąd Bayesa
Odpowiedzi:
W rzeczywistości jest to dość proste: klasyfikator Bayesa wybiera klasę, która ma największe prawdopodobieństwo wystąpienia a posteriori (tzw. Oszacowanie maksimum a posteriori ). Funkcja utraty 0-1 penalizuje błędne klasyfikowanie, tzn. Przypisuje najmniejszą stratę rozwiązaniu, które ma największą liczbę poprawnych klasyfikacji. W obu przypadkach mówimy o trybie szacowania . Przypomnij sobie, że tryb jest najczęstszą wartością w zbiorze danych lub najbardziej prawdopodobną wartością , więc zarówno maksymalizacja prawdopodobieństwa a posteriori, jak i minimalizacja straty 0-1 prowadzi do oszacowania trybu.
Jeśli potrzebujesz formalnego dowodu, ten jest podany we wstępie do dokumentu Bayesian Theoryory autorstwa Angeli J. Yu:
Dotyczy to ogólnie oceny maksymalnej a posteriori. Więc jeśli znasz rozkład tylny, a następnie zakładając stratę 0-1, najbardziej optymalną regułą klasyfikacji jest przyjęcie trybu rozkładu tylnego, nazywamy to optymalnym klasyfikatorem Bayesa . W prawdziwym życiu zwykle nie znamy rozkładu tylnego, ale raczej go oceniamy. Naiwny klasyfikator Bayesa przybliża optymalny klasyfikator, patrząc na rozkład empiryczny i zakładając niezależność predyktorów. Tak naiwny klasyfikator Bayesa nie jest sam w sobie optymalny, ale przybliża optymalne rozwiązanie. W swoim pytaniu wydajesz się mylić te dwie rzeczy.
źródło