Ostatnio studiowałem autoencodery. Jeśli dobrze zrozumiałem, autoencoder to sieć neuronowa, w której warstwa wejściowa jest identyczna z warstwą wyjściową. Tak więc sieć neuronowa próbuje przewidzieć wyjście, używając wejścia jako złotego standardu.
Jaka jest przydatność tego modelu? Jakie są zalety próby zrekonstruowania niektórych elementów wyjściowych, aby były jak najbardziej równe elementom wejściowym? Dlaczego należy korzystać z tych wszystkich maszyn, aby dostać się do tego samego punktu początkowego?
Może również modelować populację, aby po wprowadzeniu nowego wektora można było sprawdzić, jak różni się wynik od danych wejściowych. Jeśli są „całkiem” takie same, możesz założyć, że dane wejściowe odpowiadają populacji. Jeśli są „całkiem” różne, dane wejściowe prawdopodobnie nie należą do modelowanej populacji.
Widzę to jako rodzaj „regresji przez sieci neuronowe”, w której próbujesz mieć funkcję opisującą twoje dane: jej wynik jest taki sam jak danych wejściowych.
źródło
Może te zdjęcia dają ci intuicję. Jak komentator powyżej powiedział, auto kodery próbują wydobyć niektóre funkcje wysokiego poziomu z przykładów szkoleniowych. Na drugim zdjęciu możesz zobaczyć, jak algorytm prognozowania służy do trenowania każdego ukrytego poziomu osobno dla głębokiej NN.
Zdjęcia pochodzą z rosyjskiej wikipedii.
źródło