Adaboost to kompleksowa metoda, która łączy wielu słabych uczniów, tworząc silną. Wszystkie przykłady adaboost, które przeczytałem, wykorzystują pnie decyzji / drzewa jako słabych uczniów. Czy mogę korzystać z różnych słabych uczniów w Adaboost? Na przykład, jak zaimplementować adaboost (ogólnie wzmocnienie), aby wzmocnić model regresji logistycznej?
Jedną z głównych różnic w drzewach klasyfikacji i regresji logistycznej jest to, że poprzednie klasy danych wyjściowych (-1,1), podczas gdy regresja logistyczna generuje sondy. Jednym z pomysłów jest wybranie najlepszej cechy X z zestawu funkcji i podniesienie progu (0,5?), Aby przekonwertować sondy na klasy, a następnie użyć ważonej regresji logistycznej, aby znaleźć następną cechę itp.
Ale wyobrażam sobie, że istnieje ogólny algorytm służący do podnoszenia różnych słabych uczniów innych niż pniaki decyzyjne, które generują prawdopodobieństwa. Wierzyłem, że Logitboost jest odpowiedzią na moje pytanie, ale spróbowałem przeczytać artykuł „Addytywna regresja logistyczna” i utknąłem na środku.
W rzeczywistości mamy bardzo podobne pytanie w sprawie regresji. I mieliśmy bardzo dobrą odpowiedź @Matthew Drury
Zwiększanie gradientu dla regresji liniowej - dlaczego to nie działa?
Model liniowy (taki jak regresja logistyczna) nie nadaje się do wzmocnienia. Powodem jest to, że jeśli dodasz dwa modele liniowe razem, wynikiem jest inny model liniowy. Z drugiej strony dodanie dwóch kikutów decyzyjnych lub drzew będzie miało bardziej skomplikowany i interesujący model (już nie drzewo).
Szczegóły można znaleźć w tym poście. W tym linku dowiedziałem się, dlaczego dodanie dwóch modeli liniowych nie jest interesujące. I pokazuję wpływ wzmocnienia na iterację pnia decyzji przez iterację.
Jak działa liniowy uczeń w wzmacnianiu? A jak to działa w bibliotece xgboost?
Należy zauważyć, że drzewo decyzyjne / pień nie jest „modelem liniowym” podobnym do regresji logistycznej.
Zobacz ten post, aby uzyskać szczegółowe informacje
Czy kikut decyzji jest modelem liniowym?
źródło