Bagging to generowanie wielu predyktorów, które działają tak samo, jak jeden predyktor. Dropout jest techniką, która uczy sieci neuronowe uśredniania wszystkich możliwych podsieci. Patrząc na najważniejsze zawody Kaggle, wydaje się, że te dwie techniki są bardzo często używane razem. Nie widzę żadnej teoretycznej różnicy poza faktyczną implementacją. Kto może mi wyjaśnić, dlaczego powinniśmy używać obu z nich w jakiejkolwiek prawdziwej aplikacji? i dlaczego poprawia się wydajność, gdy korzystamy z nich obu?
Znalazłem porównanie dwóch rodzajów sieci w Max Out Networks, które mówi:
Mam nadzieję, że się przyda.
źródło
Rezygnacja jest techniką regularyzacji stosowaną w celu uniknięcia nadmiernego dopasowania w dużych sieciach neuronowych, szczególnie poprzez pominięcie niektórych neuronów w ukrytych warstwach (stąd nazwa rezygnacji dla neuronów pominiętych) po treningu. Zasadniczo, jeśli sieć naprawdę nauczyła się czegokolwiek podczas treningu, to porzucenie niektórych neuronów nie powinno negatywnie wpłynąć na dokładność prognoz.
Tworzenie worków jest również skuteczną techniką regularyzacji, stosowaną w celu zmniejszenia wariancji danych treningowych i poprawy dokładności modelu poprzez użycie wielu jego kopii wyszkolonych na różnych podzbiorach danych z początkowego / większego zestawu danych treningowych.
zobacz to pytanie
źródło