Do czego służą różne rodzaje sieci neuronowych?

11

Znalazłem następujący arkusz ściągający sieci neuronowej ( Ściągawki dla AI, Sieci neuronowe, Uczenie maszynowe, Głębokie uczenie się i Big Data ).

wprowadź opis zdjęcia tutaj

Do czego służą te różne rodzaje sieci neuronowych? Na przykład, które sieci neuronowe można wykorzystać do regresji lub klasyfikacji, które można wykorzystać do generowania sekwencji itp.? Potrzebuję tylko krótkiego przeglądu (1-2 wiersze) ich aplikacji.

datdinhquoc
źródło

Odpowiedzi:

9

Zgadzam się, że jest to zbyt ogólne, ale dla większości z nich odpowiedź brzmi 1 zdanie. Te, które pominąłem (z dołu tabeli) są bardzo nowoczesne i bardzo wyspecjalizowane. Niewiele o nich wiem, więc może ktoś, kto wie, może poprawić tę odpowiedź.

  • Perceptron: regresja liniowa lub logistyczna (a tym samym klasyfikacja).
  • Feed Forward: Zwykle regresja lub klasyfikacja nieliniowa z aktywacją sigmoidalną. Zasadniczo perceptron wielowarstwowy.
  • Sieć Radial Basis: sieć Feed Forward z funkcjami aktywacji Radial Basis. Służy do klasyfikacji i niektórych rodzajów filtrów wideo / audio
  • Deep Feed Forward: Feed Forward z więcej niż 1 ukrytą warstwą. Służy do uczenia się bardziej złożonych wzorców w klasyfikacji lub regresji, np. Uczenia się wzmacniającego.

  • Recurrent Neural Network: Deep Forward Network Forward, w której niektóre węzły łączą się z przeszłością warstwami. Wykorzystywane w uczeniu się wzmacniającym oraz do uczenia się wzorców w sekwencyjnych danych, takich jak tekst lub dźwięk.
  • LSTM: Nawracająca sieć neuronowa ze specjalistycznymi neuronami kontrolnymi (czasami nazywanymi bramkami), które umożliwiają zapamiętywanie sygnałów przez dłuższy czas lub wybiórcze zapominanie. Używany w dowolnej aplikacji RNN i często potrafi nauczyć się sekwencji, które mają bardzo długi czas powtarzania.
  • GRU: Podobnie jak LSTM, inny rodzaj bramkowanego RNN ze specjalistycznymi neuronami kontrolnymi.

  • Auto Encoder: uczy się kompresji danych, a następnie dekompresji. Po nauczeniu się tego modelu można go podzielić na dwie przydatne części: odwzorowanie z przestrzeni wejściowej na niskowymiarową przestrzeń cech, która może być łatwiejsza do interpretacji lub zrozumienia; oraz mapowanie z małej wymiarowej podprzestrzeni prostych liczb na złożone wzory, które można wykorzystać do wygenerowania tych złożonych wzorów. Podstawy znacznie nowoczesnej pracy w dziedzinie przetwarzania obrazu, języka i dźwięku.
  • VAE, DAE, SAE: Specjalizacje automatycznego enkodera.

  • Łańcuch Markowa: reprezentacja sieci neuronowej łańcucha Markowa: Stan jest zakodowany w zestawie aktywnych neuronów, a zatem prawdopodobieństwa przejścia są określone przez wagi. Służy do uczenia się prawdopodobieństwa przejścia i uczenia się funkcji bez nadzoru dla innych aplikacji.
  • HN, BM, RBM, DBM: wyspecjalizowane architektury oparte na idei łańcucha Markowa, używane do automatycznego uczenia się przydatnych funkcji dla innych aplikacji.

  • Deep Convolutional Network: Podobnie jak sieć feed-forward, ale każdy węzeł jest tak naprawdę zbiorem węzłów uczących się splotu z warstwy przed nim. Zasadniczo pozwala to na naukę filtrów, detektorów krawędzi i innych wzorców zainteresowania w przetwarzaniu wideo i audio.

  • Deep Deconvolutional Network: W pewnym sensie przeciwna do sieci Convolutional. Naucz się mapowania z funkcji reprezentujących krawędzie lub inne właściwości wysokiego poziomu niektórych niewidzialnych obrazów, z powrotem do przestrzeni pikseli. Generuj obrazy z podsumowań.

  • DCIGN: Zasadniczo automatyczny koder wykonany z DCN i DN sklejonych razem. Służy do nauki modeli generatywnych dla złożonych obrazów, takich jak twarze.

  • Generatywna sieć przeciwników: służy do nauki modeli generatywnych dla złożonych obrazów (lub innych typów danych), gdy nie ma wystarczającej ilości danych szkoleniowych dla DCIGN. Jeden model uczy się generować dane z przypadkowego szumu, a drugi uczy się klasyfikować moc wyjściową pierwszej sieci w odróżnieniu od dostępnych danych szkoleniowych.

John Doucette
źródło