Używanie Adaboost z SVM do klasyfikacji

11

Wiem, że Adaboost próbuje wygenerować silny klasyfikator za pomocą liniowej kombinacji zestawu słabych klasyfikatorów.

Jednak przeczytałem kilka artykułów sugerujących, że Adaboost i SVM działają harmonijnie (nawet jeśli SVM jest silnym klasyfikatorem) w pewnych warunkach i przypadkach .

Nie jestem w stanie zrozumieć z perspektywy architektury i programowania, jak działają one w połączeniu. Przeczytałem wiele artykułów (być może tych niewłaściwych), które nie wyjaśniły jasno, w jaki sposób ze sobą współpracują.

Czy ktoś może rzucić nieco światła na to, jak działają w kombinacji w celu skutecznej klasyfikacji? Docenione zostaną również wskaźniki do niektórych artykułów / artykułów / czasopism.

garak
źródło

Odpowiedzi:

8

Ten papier jest całkiem dobry. Mówi po prostu, że SVM może być traktowany jako słaby klasyfikator, jeśli użyjesz mniej próbek do jego trenowania (powiedzmy, że mniej niż połowa zestawu treningowego). Im wyższa waga, tym większa szansa, że ​​zostanie wyszkolony przez „słabą SVM”

edit: link naprawiony teraz.

poperin
źródło
Wiem, że to stare pytanie, ale link jest zepsuty. Czy znasz tytuł pracy lub nazwisko autora, aby znaleźć alternatywny link?
carlosdc
W przypadku, gdy łącze ponownie umrze w przyszłości, artykuł nazywa się Elkin García i Fernando Lozano.
Dougal
2

Artykuł AdaBoost z klasyfikatorami komponentów opartymi na SVM autorstwa Xuchun Li etal również daje intuicję.
W krótkim, ale może stronniczym podsumowaniu: starają się sprawić, by klasyfikatory svm były „słabe” (nieco ponad 50%) poprzez dostrajanie parametrów, aby uniknąć przypadków, w których jeden klasyfikator może mieć zbyt dużą wagę lub wszystkie klasyfikatory strzelają podobnie.

ZijunLost
źródło