Zastanawiam się, w jakich sytuacjach korzystne jest układanie LSTM?
machine-learning
neural-network
deep-learning
lstm
Vadim Smolyakov
źródło
źródło
Odpowiedzi:
Od Jakie są zalety układania wielu LSTM? (Zaktualizuję tylko odpowiedź):
źródło
Jedną z sytuacji, w której korzystne jest układanie LSTM w stos, jest sytuacja, gdy chcemy nauczyć się hierarchicznej reprezentacji naszych danych szeregów czasowych. W stosach LSTM każda warstwa LSTM wyprowadza sekwencję wektorów, które zostaną wykorzystane jako dane wejściowe do kolejnej warstwy LSTM. Ta hierarchia ukrytych warstw umożliwia bardziej złożoną reprezentację naszych danych szeregów czasowych, przechwytując informacje w różnych skalach.
Na przykład skumulowane LSTM mogą być używane do poprawy dokładności klasyfikacji szeregów czasowych, takich jak przewidywanie aktywności, w której tętno, licznik kroków, GPS i inne sygnały mogą być używane do przewidywania aktywności, takiej jak chodzenie, bieganie, jazda na rowerze, wchodzenie po schodach lub odpoczynek. Na przykład klasyfikacji szeregów czasowych ze stosami LSTM korzystającymi z danych EEG zajrzyj do następującego notesu ipython .
źródło
Model sekwencji po sekwencji: Zadaniem sieci enkoderów jest odczytanie sekwencji wejściowej do naszego modelu Seq2Seq i wygenerowanie ustalonego wektora kontekstowego C dla sekwencji. Aby to zrobić, koder użyje rekurencyjnej komórki sieci neuronowej - zwykle LSTM - do odczytu tokenów wejściowych pojedynczo. Ostateczny ukryty stan komórki zmieni się wtedy w C. Jednak ponieważ tak trudno jest skompresować sekwencję o dowolnej długości do jednego wektora o stałej wielkości (szczególnie w przypadku trudnych zadań, takich jak translacja), koder zwykle składa się ze skumulowanych LSTM : seria „warstw” LSTM, w której wyjścia każdej warstwy są sekwencją wejściową do następnej warstwy. Stan ukryty LSTM ostatniej warstwy zostanie użyty jako wektor kontekstu.
źródło