Załóżmy, że mam prostą jednowarstwową sieć neuronową z n wejściami i jednym wyjściem (zadanie klasyfikacji binarnej). Jeśli ustawię funkcję aktywacji w węźle wyjściowym jako funkcję sigmoidalną, wówczas wynikiem będzie klasyfikator regresji logistycznej.
W tym samym scenariuszu, jeśli zmienię aktywację wyjścia na ReLU (rektyfikowaną jednostkę liniową), to czy uzyskana struktura jest taka sama lub podobna do SVM?
Jeśli nie to dlaczego?
neural-networks
svm
OGŁOSZENIE
źródło
źródło
Odpowiedzi:
Aby utrata sieci miała taką samą formę jak SVM, możemy po prostu usunąć wszelkie nieliniowe funkcje aktywacyjne z warstwy wyjściowej i użyć utraty zawiasu do propagacji wstecznej.
Zatem pod względem funkcji utraty SVM i regresja logistyczna są dość bliskie, chociaż SVM używają zupełnie innego algorytmu do szkolenia i wnioskowania na podstawie wektorów pomocniczych.
W rozdziale 7.1.2 książki Rozpoznawanie wzorców i uczenie maszynowe znajduje się miła dyskusja na temat związku SVM i regresji logistycznej .
źródło