Wspaniały pakiet libsvm zawiera interfejs Pythona i plik „easy.py”, który automatycznie wyszukuje parametry uczenia się (koszt i gamma), które maksymalizują dokładność klasyfikatora. W obrębie danego zestawu parametrów uczenia się kandydata dokładność jest operacjonalizowana przez krzyżową weryfikację, ale wydaje mi się, że podważa to cel krzyżowej weryfikacji. Oznacza to, że o ile same parametry uczenia się mogą zostać wybrane w sposób, który może powodować nadmierne dopasowanie danych, uważam, że bardziej odpowiednim podejściem byłoby zastosowanie weryfikacji krzyżowej na poziomie samego wyszukiwania: przeprowadź wyszukiwanie na zestawie danych treningowych, a następnie oceń najwyższą dokładność SVM wynikającą z ostatecznie wybranych parametrów uczenia się, oceniając w oddzielnym zestawie danych testowych. A może coś tu brakuje?
źródło
Nie sądzę, by sprawdzanie krzyżowe było niewłaściwie stosowane w przypadku LIBSVM, ponieważ odbywa się to na poziomie danych testowych. Wszystko, co robi, to k-krotna weryfikacja krzyżowa i wyszukiwanie najlepszego parametru dla jądra RBF. Daj mi znać, że się nie zgadzam.
źródło