Pytania oznaczone «neural-network»

Sztuczne sieci neuronowe (ANN) składają się z „neuronów” - konstruktów programistycznych, które naśladują właściwości neuronów biologicznych. Zestaw ważonych połączeń między neuronami umożliwia rozprzestrzenianie się informacji przez sieć w celu rozwiązania problemów sztucznej inteligencji, bez projektanta sieci posiadającego model prawdziwego systemu.

188
Czym są warstwy dekonwolucyjne?

Niedawno przeczytałem w pełni sieci konwergentne dla segmentacji semantycznej autorstwa Jonathana Longa, Evana Shelhamera, Trevora Darrella. Nie rozumiem, co robią „warstwy dekonwolucyjne” / jak działają. Odpowiednia część to 3.3 Upsampling jest konwertowanym krokiem wstecz Innym sposobem...

95
Kiedy używać GRU przez LSTM?

Kluczowa różnica między GRU a LSTM polega na tym, że GRU ma dwie bramki (bramki resetowania i aktualizacji ), podczas gdy LSTM ma trzy bramki (mianowicie bramki wejścia , wyjścia i zapomnienia ). Dlaczego korzystamy z GRU, skoro mamy wyraźniejszą kontrolę nad siecią dzięki modelowi LSTM (ponieważ...

62
Backprop przez warstwy Max-Pooling?

Jest to małe pytanie koncepcyjne, które dręczy mnie od dłuższego czasu: Jak możemy propagować wstecz przez warstwę max-pooling w sieci neuronowej? Natknąłem się na warstwy o maksymalnej puli podczas omawiania tego samouczka dla biblioteki nn Torch 7. Biblioteka streszcza obliczenia gradientu i...

53
RNN vs CNN na wysokim poziomie

Myślałem o Rekurencyjnych Sieciach Neuronowych (RNN) i ich odmianach oraz Konwolucyjnych Sieciach Neuronowych (CNN) i ich odmianach. Czy te dwa punkty są sprawiedliwe: Użyj CNN, aby rozbić komponent (taki jak obraz) na podskładniki (takie jak obiekt w obrazie, taki jak kontur obiektu w obrazie...

42
Jaka jest różnica między LeakyReLU i PReLU?

Myślałem, że zarówno PReLU, jak i Leaky ReLU są fa( x ) = maks. ( x , α x ) z  α ∈ ( 0 , 1 )f(x)=max(x,αx) with α∈(0,1)f(x) = \max(x, \alpha x) \qquad \text{ with } \alpha \in (0, 1) Keras ma jednak obie funkcje w dokumentacji . Nieszczelne ReLU Źródło LeakyReLU : return K.relu(inputs,...