Nie znalazłem zadowalającej odpowiedzi na to w Google .
Oczywiście, jeśli dane, które mam, są rzędu milionów, to głębokie uczenie się jest drogą.
Przeczytałem, że kiedy nie mam dużych zbiorów danych, może lepiej jest zastosować inne metody uczenia maszynowego. Podany powód jest nadmierny. Uczenie maszynowe: tj. Patrzenie na dane, ekstrakcje funkcji, tworzenie nowych funkcji z tego, co jest gromadzone itp. Rzeczy, takie jak usuwanie silnie skorelowanych zmiennych itp. Cała maszyna ucząca się 9 metrów.
Zastanawiam się: dlaczego sieci neuronowe z jedną ukrytą warstwą nie są panaceum na problemy z uczeniem maszynowym? Są to uniwersalne estymatory, nadmiernym dopasowaniem można zarządzać za pomocą rezygnacji, regularyzacji l2, regularyzacji l1, normalizacji partii. Szybkość treningu nie stanowi problemu, jeśli mamy zaledwie 50 000 przykładów treningu. Są lepsze w czasie testu niż, powiedzmy, losowe lasy.
Dlaczego więc nie - wyczyścić dane, przypisać brakujące wartości, tak jak zwykle, wyśrodkować dane, ujednolicić dane, wrzucić je do zestawu sieci neuronowych z jedną ukrytą warstwą i zastosować regularyzację, aż nie zobaczysz nadmiernego dopasowania, a następnie trenuj do końca. Brak problemów z eksplozją gradientów lub znikaniem gradientów, ponieważ jest to tylko 2-warstwowa sieć. Jeśli potrzebne są głębokie warstwy, oznacza to, że należy nauczyć się cech hierarchicznych, a następnie inne algorytmy uczenia maszynowego również nie są dobre. Na przykład SVM jest siecią neuronową z tylko utratą zawiasów.
Doceniony zostanie przykład, w którym jakiś inny algorytm uczenia maszynowego byłby lepszy od starannie uregulowanej 2-warstwowej (może 3?) Sieci neuronowej. Możesz podać mi link do problemu, a ja wytrenowałbym najlepszą sieć neuronową, jaką mogę, i możemy zobaczyć, czy 2-warstwowe lub 3-warstwowe sieci neuronowe nie spełniają żadnego innego algorytmu uczenia maszynowego.
źródło
Odpowiedzi:
Każdy algorytm uczenia maszynowego ma inne nastawienie indukcyjne, więc nie zawsze właściwe jest stosowanie sieci neuronowych. Tendencji liniowej zawsze można się najlepiej nauczyć na podstawie prostej regresji liniowej, a nie zestawu sieci nieliniowych.
Jeśli spojrzysz na zwycięzców poprzednich konkursów Kaggle , z wyjątkiem jakichkolwiek wyzwań związanych z danymi obrazu / wideo, szybko przekonasz się, że sieci neuronowe nie są rozwiązaniem wszystkiego. Niektóre poprzednie rozwiązania tutaj.
Nie ma gwarancji, że można zastosować wystarczającą regularyzację, aby zapobiec nadmiernemu dopasowaniu bez całkowitego zniszczenia zdolności sieci do nauki czegokolwiek. W prawdziwym życiu wyeliminowanie luki w testowaniu pociągów jest rzadko wykonalne, dlatego też dokumenty nadal informują o wydajności pociągów i testów.
Dotyczy to tylko limitu posiadania nieograniczonej liczby jednostek, co nie jest realistyczne.
Przykładowy problem, który, jak sądzę, sieci neuronowej nigdy nie byłby w stanie rozwiązać: Biorąc pod uwagę liczbę całkowitą, sklasyfikuj jako liczbę pierwszą lub drugą.
Wierzę, że można to doskonale rozwiązać za pomocą prostego algorytmu, który iteruje wszystkie prawidłowe programy w rosnącej długości i znajduje najkrótszy program, który poprawnie identyfikuje liczby pierwsze. Rzeczywiście, ten 13-znakowy ciąg wyrażeń regularnych może pasować do liczb pierwszych, które nie byłyby trudne do obliczeniowo wyszukiwania.
Tak, jest słaby punkt, ale zwykle kończy się zbyt wiele. Zobacz ten rysunek:
Jeśli odwrócisz oś poziomą i oznaczysz ją etykietą jako „ilość regularyzacji”, będzie ona dość dokładna - jeśli wykonasz regulację, aż w ogóle nie będzie przeregulowania, twój błąd będzie ogromny. „Sweet spot” pojawia się, gdy jest trochę przeregulowania, ale nie za dużo.
Tak. Oto brzydka, ale miejmy nadzieję skuteczna postać, która zilustruje mój punkt widzenia.
Pytanie nie brzmi „czy to możliwe”, ale „czy to zrobi”, a jeśli trenujesz propagację wsteczną, odpowiedź prawdopodobnie nie jest.
Bez dalszych kwalifikacji twierdzenie to jest po prostu błędne.
źródło
Dodałbym, że nie ma czegoś takiego jak panaceum na uczenie maszynowe:
Według twierdzenia o braku darmowego lunchu :
źródło