Jednak w przypadku SVM z twardym marginesem cała funkcja celu to po prostu
Czy to oznacza, że SVM z twardym marginesem minimalizuje tylko regularyzator bez funkcji straty? Brzmi bardzo dziwnie.
Cóż, jeśli jest funkcją straty w tym przypadku, czy możemy ją nazwać funkcją straty kwadratowej? Jeśli tak, to dlaczego funkcja utraty twardego marginesu SVM staje się regulatorem w miękkim marginesie SVM i dokonuje zmiany z straty kwadratowej na utratę zawiasów?
svm
loss-functions
Roun
źródło
źródło
Odpowiedzi:
Warunek utraty zawiasu∑jamax ( 0 , 1 - yja( w⊺xja+ b ) ) w miękkim marginesie SVM karze błędne klasyfikacje . W twardym marginesie SVM z definicji nie ma błędnych klasyfikacji.
To rzeczywiście oznacza, że SVM z twardym marginesem próbuje zminimalizować∥ w ∥2) . Ze względu na sformułowanie problemu SVM margines wynosi 2 / ∥ w ∥ . Jako takie, minimalizacja normy w jest geometrycznie równoważna maksymalizacji marginesu. Dokładnie to, czego chcemy!
Regulararyzacja jest techniką pozwalającą uniknąć nadmiernego dopasowania poprzez karanie dużych współczynników w wektorze rozwiązania. W ciężkiej marży SVM jest zarówno funkcja straty i regularizer.∥ w ∥2) L.2)
W SVM z miękkim marginesem, parametr utraty zawiasu działa również jak regularyzator, ale na zmiennych luzu zamiast i w zamiast . indukuje rzadkość, dlatego standardowa SVM jest rzadka pod względem wektorów wspierających (w przeciwieństwie do SVM o najmniejszych kwadratach).w L.1 L.2) L.1
źródło
Dla wyjaśnienia, jest zminimalizowany z zastrzeżeniem ograniczenia, że punkty można rozdzielić liniowo (tzn. Można narysować hiperpłaszczyznę, która doskonale oddziela te dwa). Innymi słowy, jedynymi dozwolonymi wartościami w, które możemy rozważyć jako rozwiązania, są te, które oddzielają dwa zestawy punktów.12)∥ w ∥2)
Uważa się, że SVM z twardym marginesem „łatwiej się dopasowuje” niż miękki margines. Łatwiej jest to sobie wyobrazić przy użyciu SVM RBF o wystarczająco wysokim współczynniku , który może tworzyć (zbyt) skomplikowane i (potencjalnie) przesadne granice decyzyjne. Im trudniejszy margines (emulowany nieprecyzyjnie z wyższym „C”), tym trudniej będzie szukać granic decyzji, które idealnie sklasyfikują dwa zestawy punktów.γ
Kiedy przechodzimy do „miękkiego marginesu”, ograniczenia zostają złagodzone i zastąpione ograniczeniem poprzez wprowadzenie „luzu”. Ta zmienna luzu jest definiowana przez „utratę zawiasu”. Po uproszczeniu dochodzi się do zawiasu + l2, jak termin utraty, który wszyscy kojarzą z SVM. FWIW, lubię kadrować SVM jako bardziej problem optymalizacji zamiast wszechobecnego problemu „podążaj za gradientami”.
źródło