Niedawno użyłem skalowania Platta wyjść SVM do oszacowania prawdopodobieństwa zdarzeń domyślnych. Bardziej bezpośrednimi alternatywami wydają się być „regresja logistyczna jądra” (KLR) i związana z nią „maszyna wektorów importu”.
Czy ktoś może powiedzieć, która metoda jądra dająca wyniki prawdopodobieństwa jest obecnie najnowocześniejsza? Czy istnieje R-implementacja KLR?
Bardzo ci dziękuje za pomoc!
logistic
svm
kernel-trick
RichardN
źródło
źródło
Odpowiedzi:
Klasyfikacja procesów gaussowskich (przy użyciu Expagation Propagation) jest prawdopodobnie najnowocześniejszym rozwiązaniem w uczeniu maszynowym. Istnieje doskonała książka Rasmussena i Williamsa (do pobrania za darmo), której strona internetowa ma bardzo dobre wdrożenie MATLAB. Więcej oprogramowania, książek, dokumentów itp . Tutaj . Jednak w praktyce KLR będzie prawdopodobnie działał równie dobrze w przypadku większości problemów, główną trudnością jest wybór parametrów jądra i regularyzacji, co prawdopodobnie najlepiej jest przeprowadzić przez sprawdzanie krzyżowe, chociaż walidację krzyżową typu „out-one-out” można oszacować w przybliżeniu bardzo skutecznie, patrz Cawley i Talbot (2008).
źródło
Wydaje mi się, że wiesz, że jądro regresji logistycznej jest nieparametryczne, więc przede wszystkim masz to ograniczenie.
Jeśli chodzi o pakiet R, to ten, który znam i działa całkiem dobrze, to np . : Nieparametryczne metody wygładzania jądra dla mieszanych typów danych
Ten pakiet zawiera szereg nieparametrycznych (i półparametrycznych) metod jądra, które płynnie obsługują połączenie ciągłych, nieuporządkowanych i uporządkowanych typów danych czynników.
Jeśli chodzi o najnowszy kernell, mogę polecić eksperymentowanie z tymi opisanymi w tym artykule z 2009 roku. Przeczytaj uważnie, aby wybrać ten, który jest dla ciebie najlepszy i bardziej aktualny.
źródło