W książce Goodfellow (2016) na temat głębokiego uczenia się mówił o równoważności wczesnego zaprzestania regularyzacji L2 ( https://www.deeplearningbook.org/contents/regularization.html strona 247).
Kwadratowe przybliżenie funkcji kosztu daje:
W książce Goodfellow (2016) na temat głębokiego uczenia się mówił o równoważności wczesnego zaprzestania regularyzacji L2 ( https://www.deeplearningbook.org/contents/regularization.html strona 247).
Kwadratowe przybliżenie funkcji kosztu daje:
Mówią o optymalnych wagach:
Możemy modelować funkcję kosztu z kwadratowym przybliżeniem w sąsiedztwie empirycznie optymalnej wartości wag
W tym momencie pierwsza pochodna wynosi zero - środkowy człon jest zatem pominięty.