Jeśli chodzi o różnicę między siecią neuronową a głębokim uczeniem się, możemy wymienić kilka elementów, takich jak więcej warstw, ogromny zestaw danych, potężny sprzęt komputerowy, aby uczynić szkolenie skomplikowanym modelem.
Poza tym, czy są jakieś bardziej szczegółowe wyjaśnienia dotyczące różnicy między NN i DL?
machine-learning
neural-networks
deep-learning
conv-neural-network
deep-belief-networks
użytkownik3269
źródło
źródło
Odpowiedzi:
Głębokie uczenie się = głębokie sztuczne sieci neuronowe + inny rodzaj głębokich modeli .
Głębokie sztuczne sieci neuronowe = sztuczne sieci neuronowe z więcej niż 1 warstwą. (patrz minimalna liczba warstw w głębokiej sieci neuronowej )
źródło
Frank Dernoncourt ma lepszą ogólną odpowiedź, ale myślę, że warto wspomnieć, że kiedy ludzie używają szerokiego terminu „głębokie uczenie się”, często sugerują stosowanie najnowszych technik, takich jak splot, których nie można znaleźć w starszych / tradycyjnych (w pełni połączone) sieci neuronowe. W przypadku problemów z rozpoznawaniem obrazu splot może umożliwić głębsze sieci neuronowe, ponieważ zwinięte neurony / filtry zmniejszają ryzyko nadmiernego dopasowania poprzez podział ciężarów.
źródło
Sieci neuronowe z wieloma warstwami są głębokimi architekturami.
Jednak algorytm uczenia się propagacji wstecznej stosowany w sieciach neuronowych nie działa dobrze, gdy sieć jest bardzo głęboka. Architektura uczenia się w architekturze głębokiej („głębokie uczenie się”) musi rozwiązać ten problem. Na przykład maszyny Boltzmann zamiast tego używają algorytmu uczenia kontrastowego.
Stworzenie głębokiej architektury jest łatwe. Opracowanie algorytmu uczenia się, który działa dobrze w przypadku głębokiej architektury, okazało się trudne.
źródło
Głębokie uczenie się wymaga sieci neuronowej posiadającej wiele warstw - każda warstwa dokonuje transformacji matematycznych i przechodzi do następnej warstwy. Dane wyjściowe z ostatniej warstwy są decyzją sieci dla danego wejścia. Warstwy między warstwą wejściową i wyjściową są nazywane warstwami ukrytymi.
Sieć neuronowa do głębokiego uczenia się to ogromny zbiór perceptronów połączonych warstwami. Wagi i obciążenie każdego perceptronu w sieci wpływają na charakter decyzji wyjściowej całej sieci. W doskonale dostrojonej sieci neuronowej wszystkie wartości wag i stronniczości całego perceptronu są takie, że decyzja wyjściowa jest zawsze poprawna (zgodnie z oczekiwaniami) dla wszystkich możliwych danych wejściowych. Jak konfigurowane są wagi i odchylenie? Dzieje się to iteracyjnie podczas szkolenia sieci - zwanego głębokim uczeniem się. (Sharad Gandhi)
źródło