lokalne minima vs punkty siodłowe w głębokim uczeniu się

18

Słyszałem, jak Andrew Ng (w filmie, którego niestety już nie mogę znaleźć) opowiadał o tym, jak zmieniło się rozumienie lokalnych minimów w problemach głębokiego uczenia się w tym sensie, że są one obecnie uważane za mniej problematyczne, ponieważ w przestrzeniach wielowymiarowych (spotykanych w głębokie uczenie się) punkty krytyczne częściej są punktami siodłowymi lub płaskowyżami niż lokalnymi minimami.

Widziałem artykuły (np. ), które omawiają założenia, zgodnie z którymi „każde lokalne minimum jest globalnym minimum”. Wszystkie te założenia są raczej techniczne, ale z tego, co rozumiem, mają tendencję do narzucania struktury sieci neuronowej, która czyni ją nieco liniową.

Czy uzasadnione jest twierdzenie, że w głębokim uczeniu się (w tym architekturach nieliniowych) płaskowyże są bardziej prawdopodobne niż lokalne minima? A jeśli tak, to czy kryje się za tym (prawdopodobnie matematyczna) intuicja?

Czy jest coś szczególnego w głębokim uczeniu się i punktach siodłowych?

oW_
źródło
12
Jeśli chodzi o matematyczną intuicję, dlaczego punkt siodłowy jest bardziej prawdopodobny niż lokalne minimum, pomyślałbym o tym pod względem cech. Aby być lokalnym minimum, musi być lokalnym minimum we wszystkich kierunkach. Natomiast dla punktu siodłowego tylko 1 kierunek musi być inny niż inne. O wiele bardziej prawdopodobne jest, że jeden lub więcej zachowuje się inaczej niż pozostałe, w porównaniu do tego samego zachowania we wszystkich kierunkach.
Paul
3
dzięki, teraz, kiedy to mówisz, to trochę oczywiste ... oto kilka interesujących dyskusji na ten temat
oW_
4
Andrew Ng ma wideo na temat „Problem minimów lokalnych” w drugim tygodniu swojego kursu Coursera, „Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization”. Może to ten, którego szukasz.
mjul
spójrz tutaj
Media

Odpowiedzi:

7

To po prostu stara się przekazać moją intuicję, tj. Brak rygoru. Rzeczą w punktach siodłowych jest to, że są one rodzajem optymalnego, który łączy kombinację minimów i maksimów. Ponieważ liczba wymiarów jest tak duża przy głębokim uczeniu się, prawdopodobieństwo, że optimum składa się tylko z kombinacji minimów, jest bardzo niskie. Oznacza to, że „utknięcie” w lokalnym minimum jest rzadkie. Ryzykując nadmierne uproszczenie, trudniej jest „utknąć” w punkcie siodła, ponieważ można „zjechać z jednego z wymiarów”. Myślę, że film Andrew Ng, o którym mówisz, pochodzi z kursu Coursera na temat głębokiego uczenia się.

użytkownik41985
źródło
13

Pozwól mi wyjaśnić na podstawie rachunku różniczkowego. Jeśli wybrałeś kurs wielowymiarowy, usłyszysz, że biorąc pod uwagę punkt krytyczny (punkt, w którym gradient wynosi zero), warunkiem tego punktu krytycznego, aby być minimalnym jest to, że macierz Hesji jest dodatnia. Ponieważ Hesjan jest macierzą symetryczną, możemy ją diagonalizować. Jeśli napiszemy macierz diagonalną odpowiadającą Hesji jako: Hesjan jest dodatni określony jest równoważnyd1>0,,dn>0.

re=[re1ren]
re1>0,,ren>0

re1,,renreja1/2)rejarejot, ze względu na wysoką nieliniowość macierzy Heskiej, więc przyjmiemy prawdopodobieństwo, że będą one pozytywne jako zdarzenia niezależne.

P.(re1>0,,ren>0)=P.(re1>0)P.(ren>0)=12)n

1081/2)n

Ale co z maksimami?

1/2n

P(saddle)=1P(maximum)P(minimum)=112n12n=112n1

n

David Masip
źródło