Zgadzam się, że jest to zbyt ogólne, ale dla większości z nich odpowiedź brzmi 1 zdanie. Te, które pominąłem (z dołu tabeli) są bardzo nowoczesne i bardzo wyspecjalizowane. Niewiele o nich wiem, więc może ktoś, kto wie, może poprawić tę odpowiedź.
- Perceptron: regresja liniowa lub logistyczna (a tym samym klasyfikacja).
- Feed Forward: Zwykle regresja lub klasyfikacja nieliniowa z aktywacją sigmoidalną. Zasadniczo perceptron wielowarstwowy.
- Sieć Radial Basis: sieć Feed Forward z funkcjami aktywacji Radial Basis. Służy do klasyfikacji i niektórych rodzajów filtrów wideo / audio
- Deep Feed Forward: Feed Forward z więcej niż 1 ukrytą warstwą. Służy do uczenia się bardziej złożonych wzorców w klasyfikacji lub regresji, np. Uczenia się wzmacniającego.
- Recurrent Neural Network: Deep Forward Network Forward, w której niektóre węzły łączą się z przeszłością warstwami. Wykorzystywane w uczeniu się wzmacniającym oraz do uczenia się wzorców w sekwencyjnych danych, takich jak tekst lub dźwięk.
- LSTM: Nawracająca sieć neuronowa ze specjalistycznymi neuronami kontrolnymi (czasami nazywanymi bramkami), które umożliwiają zapamiętywanie sygnałów przez dłuższy czas lub wybiórcze zapominanie. Używany w dowolnej aplikacji RNN i często potrafi nauczyć się sekwencji, które mają bardzo długi czas powtarzania.
- GRU: Podobnie jak LSTM, inny rodzaj bramkowanego RNN ze specjalistycznymi neuronami kontrolnymi.
- Auto Encoder: uczy się kompresji danych, a następnie dekompresji. Po nauczeniu się tego modelu można go podzielić na dwie przydatne części: odwzorowanie z przestrzeni wejściowej na niskowymiarową przestrzeń cech, która może być łatwiejsza do interpretacji lub zrozumienia; oraz mapowanie z małej wymiarowej podprzestrzeni prostych liczb na złożone wzory, które można wykorzystać do wygenerowania tych złożonych wzorów. Podstawy znacznie nowoczesnej pracy w dziedzinie przetwarzania obrazu, języka i dźwięku.
- VAE, DAE, SAE: Specjalizacje automatycznego enkodera.
- Łańcuch Markowa: reprezentacja sieci neuronowej łańcucha Markowa: Stan jest zakodowany w zestawie aktywnych neuronów, a zatem prawdopodobieństwa przejścia są określone przez wagi. Służy do uczenia się prawdopodobieństwa przejścia i uczenia się funkcji bez nadzoru dla innych aplikacji.
- HN, BM, RBM, DBM: wyspecjalizowane architektury oparte na idei łańcucha Markowa, używane do automatycznego uczenia się przydatnych funkcji dla innych aplikacji.
Deep Convolutional Network: Podobnie jak sieć feed-forward, ale każdy węzeł jest tak naprawdę zbiorem węzłów uczących się splotu z warstwy przed nim. Zasadniczo pozwala to na naukę filtrów, detektorów krawędzi i innych wzorców zainteresowania w przetwarzaniu wideo i audio.
Deep Deconvolutional Network: W pewnym sensie przeciwna do sieci Convolutional. Naucz się mapowania z funkcji reprezentujących krawędzie lub inne właściwości wysokiego poziomu niektórych niewidzialnych obrazów, z powrotem do przestrzeni pikseli. Generuj obrazy z podsumowań.
DCIGN: Zasadniczo automatyczny koder wykonany z DCN i DN sklejonych razem. Służy do nauki modeli generatywnych dla złożonych obrazów, takich jak twarze.
Generatywna sieć przeciwników: służy do nauki modeli generatywnych dla złożonych obrazów (lub innych typów danych), gdy nie ma wystarczającej ilości danych szkoleniowych dla DCIGN. Jeden model uczy się generować dane z przypadkowego szumu, a drugi uczy się klasyfikować moc wyjściową pierwszej sieci w odróżnieniu od dostępnych danych szkoleniowych.