jaka jest różnica między wielowarstwowym perceptronem a wielowarstwową siecią neuronową?

13

Kiedy mówimy, że sztuczna sieć neuronowa jest wielowarstwowym Perceptronem ?

A kiedy mówimy, że sztuczna sieć neuronowa jest wielowarstwowa ?

Czy termin perceptron jest powiązany z regułą uczenia się w celu aktualizacji wag?

Czy jest to związane z jednostkami neuronowymi?

Mohammad
źródło

Odpowiedzi:

13

Perceptron jest zawsze przekazywany do przodu , to znaczy wszystkie strzałki idą w kierunku wyjścia. Sieci neuronowe ogólnie mogą mieć pętle, a jeśli tak, często nazywane są sieciami rekurencyjnymi . Sieć rekurencyjna jest o wiele trudniejsza do wyszkolenia niż sieć feedforward.

Ponadto zakłada się, że w perceptronie wszystkie strzałki przechodzą od warstwy do warstwy , i jest również zwykle (na początek mając), że wszystkie łuki z warstwy do są obecne.ii+1ii+1

Wreszcie posiadanie wielu warstw oznacza więcej niż dwie warstwy, co oznacza, że ​​masz ukryte warstwy. Perceptron to sieć z dwiema warstwami, jedną wejściową i jedną wyjściową. Sieć wielowarstwowa oznacza, że ​​masz co najmniej jedną ukrytą warstwę (nazywamy wszystkie warstwy między warstwami wejściową i wyjściową ukrytą).

Pål GD
źródło
2

Kiedy mówimy, że sztuczna sieć neuronowa jest wielowarstwowym Perceptronem?

Sztuczna sieć neuronowa, która ma warstwę wejściową, warstwę wyjściową i dwie lub więcej trenowalnych warstw obciążeniowych (składających się z Perceptronów) nazywa się perceptronem wielowarstwowym lub MLP.

A kiedy mówimy, że sztuczna sieć neuronowa jest wielowarstwowa?

Można powiedzieć, że jest to sieć wielowarstwowa, jeśli ma dwie lub więcej warstw, które można trenować.

Czy termin perceptron jest powiązany z regułą uczenia się w celu aktualizacji wag?

Nie. Istnieje wiele różnych zasad uczenia się, które można zastosować do zmiany ciężarów w celu nauczenia perceptronu. Termin perceptron sam w sobie nie pociąga za sobą żadnej konkretnej reguły uczenia się.

Czy jest to związane z jednostkami neuronowymi?

Nie jestem pewien, co przez to rozumiesz.

Możesz przeczytać więcej w tej bezpłatnej książce http://www.dkriesel.com/_media/science/neuronalenetze-en-zeta2-2col-dkrieselcom.pdf

Vladimir S.
źródło
Myślę, że twoja liczba warstw jest wyłączona: twoja definicja wymagałaby minimum czterech warstw, podczas gdy AFAIK i MLP w rzeczywistości wymaga tylko minimum trzech warstw: wejścia , pojedynczego ukrytego i wyjścia .
javadba
1

Z Wikipedii :

W kontekście sieci neuronowych perceptron jest sztucznym neuronem wykorzystującym funkcję kroku Heaviside jako funkcję aktywacji.

Zatem perceptron jest specjalnym typem jednostki lub neuronu. Stąd wielowarstwowy perceptron jest podzbiorem wielowarstwowych sieci neuronowych.

erensezener
źródło
proszę podać odniesienie do podstawowej koncepcji sieci neuronowej. (Książka PDF)
Mohammad,