Przeglądam następujący blog na sieci neuronowej LSTM: http://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/
Autor przekształca wektor wejściowy X jako [próbki, przedziały czasowe, cechy] dla różnych konfiguracji LSTM.
Autor pisze
Rzeczywiście, sekwencje liter są krokami czasowymi jednej cechy, a nie krokiem czasu oddzielnych cech. Daliśmy sieci większy kontekst, ale nie więcej sekwencji, niż się spodziewano
Co to znaczy?
źródło
t-n,..., t-2, t-1
do przewidywaniat
.Jest trochę za późno, ale na wszelki wypadek; Próbka może odnosić się do poszczególnych przykładów treningowych. Zmienna „batch_size” jest zatem liczbą próbek wysłanych do sieci neuronowej. To znaczy, ile różnych przykładów podajesz jednocześnie do sieci neuronowej.
TimeSteps to czas. To jest czas, jaki ma każda twoja próbka. Na przykład próbka może zawierać kroki 128-czasowe, przy czym każdy krok może być 30-sekundowy dla przetwarzania sygnału. W przetwarzaniu języka naturalnego (NLP) krok czasowy może być powiązany ze znakiem, słowem lub zdaniem, w zależności od konfiguracji.
Funkcje to po prostu liczba wymiarów, które karmimy za każdym razem. Na przykład w NLP słowo może być reprezentowane przez 300 funkcji za pomocą word2vec. W przypadku przetwarzania sygnału, udawajmy, że twój sygnał jest 3D. Oznacza to, że masz sygnały X, Y i Z, takie jak pomiary akcelerometru na każdej osi. Oznacza to, że dla każdej próbki wysyłane byłyby 3 funkcje na każdym etapie.
Przez Guillaume
źródło
Moja odpowiedź z przykładem: [„witaj, to jest xyz”, „jak się masz”, „wielki człowiek ...”]
w tym przypadku „[próbki, przedziały czasowe, funkcje]” oznaczają:
źródło