różnica między siecią neuronową a głębokim uczeniem się

10

Jeśli chodzi o różnicę między siecią neuronową a głębokim uczeniem się, możemy wymienić kilka elementów, takich jak więcej warstw, ogromny zestaw danych, potężny sprzęt komputerowy, aby uczynić szkolenie skomplikowanym modelem.

Poza tym, czy są jakieś bardziej szczegółowe wyjaśnienia dotyczące różnicy między NN i DL?

użytkownik3269
źródło
3
O ile mi wiadomo, wystarczy mieć kilka ukrytych warstw, aby sieć była „głęboka”; więcej danych i większe komputery są bardziej symptomem rosnącej dostępności zarówno do zadań uczenia maszynowego.
Sycorax mówi Przywróć Monikę
Być może to pytanie należy przenieść na nową wymianę stosu sztucznej inteligencji ?
WilliamKF
2
@WilliamKF To jest tutaj bezpośrednio na temat.
Sycorax mówi Przywróć Monikę

Odpowiedzi:

4

Frank Dernoncourt ma lepszą ogólną odpowiedź, ale myślę, że warto wspomnieć, że kiedy ludzie używają szerokiego terminu „głębokie uczenie się”, często sugerują stosowanie najnowszych technik, takich jak splot, których nie można znaleźć w starszych / tradycyjnych (w pełni połączone) sieci neuronowe. W przypadku problemów z rozpoznawaniem obrazu splot może umożliwić głębsze sieci neuronowe, ponieważ zwinięte neurony / filtry zmniejszają ryzyko nadmiernego dopasowania poprzez podział ciężarów.

Ryan Zotti
źródło
1

Sieci neuronowe z wieloma warstwami głębokimi architekturami.

Jednak algorytm uczenia się propagacji wstecznej stosowany w sieciach neuronowych nie działa dobrze, gdy sieć jest bardzo głęboka. Architektura uczenia się w architekturze głębokiej („głębokie uczenie się”) musi rozwiązać ten problem. Na przykład maszyny Boltzmann zamiast tego używają algorytmu uczenia kontrastowego.

Stworzenie głębokiej architektury jest łatwe. Opracowanie algorytmu uczenia się, który działa dobrze w przypadku głębokiej architektury, okazało się trudne.

Neil G.
źródło
Wydaje się jednak, że algorytm propagacji wstecznej jest nadal używany do trenowania sieci konwekcyjnej i sieci rekurencyjnej, mimo że wykorzystują one niektóre nowo opracowane techniki optymalizacji numerycznej, takie jak normalizacja partii.
user3269,
@ user3269 normalizacja partii i rezygnacja z niej są przykładami modyfikacji algorytmu uczenia się, aby starały się, aby działały dobrze w głębokich architekturach.
Neil G
0

Głębokie uczenie się wymaga sieci neuronowej posiadającej wiele warstw - każda warstwa dokonuje transformacji matematycznych i przechodzi do następnej warstwy. Dane wyjściowe z ostatniej warstwy są decyzją sieci dla danego wejścia. Warstwy między warstwą wejściową i wyjściową są nazywane warstwami ukrytymi.

Sieć neuronowa do głębokiego uczenia się to ogromny zbiór perceptronów połączonych warstwami. Wagi i obciążenie każdego perceptronu w sieci wpływają na charakter decyzji wyjściowej całej sieci. W doskonale dostrojonej sieci neuronowej wszystkie wartości wag i stronniczości całego perceptronu są takie, że decyzja wyjściowa jest zawsze poprawna (zgodnie z oczekiwaniami) dla wszystkich możliwych danych wejściowych. Jak konfigurowane są wagi i odchylenie? Dzieje się to iteracyjnie podczas szkolenia sieci - zwanego głębokim uczeniem się. (Sharad Gandhi)

Muhammed Shakir Misarwala
źródło