Często słyszę ludzi rozmawiających o sieciach neuronowych jako czegoś w rodzaju czarnej skrzynki, której nie rozumiesz, co to znaczy lub co one oznaczają. Właściwie nie rozumiem, co przez to rozumieją! Jeśli rozumiesz, jak działa propagacja wsteczna, jak to jest czarna skrzynka?
Czy oznaczają, że nie rozumiemy, w jaki sposób obliczone wagi lub co?
machine-learning
neural-networks
Jack Twain
źródło
źródło
Odpowiedzi:
Sieć neuronowa jest czarną skrzynką w tym sensie, że chociaż może przybliżać dowolną funkcję, badanie jej struktury nie daje żadnego wglądu w przybliżoną strukturę funkcji.
Jako przykład, jednym z powszechnych zastosowań sieci neuronowych w działalności bankowej jest klasyfikacja kredytobiorców na „dobrych płatników” i „złych płatników”. Masz macierz cech wejściowych (płeć, wiek, dochód itp.) I wektor wyników („niewykonany”, „niewykonany” itp.). Kiedy modelujesz to za pomocą sieci neuronowej, zakładasz, że istnieje funkcja , w odpowiednim znaczeniu funkcji matematycznej. Ta funkcja f może być dowolnie złożona i może się zmieniać w zależności od rozwoju firmy, więc nie można jej uzyskać ręcznie.do R fa( C) = R
Następnie używasz sieci neuronowej do zbudowania aproksymacji która ma wskaźnik błędów akceptowalny dla twojej aplikacji. Działa to, a precyzja może być dowolnie mała - możesz rozbudować sieć, dostroić parametry szkolenia i uzyskać więcej danych, aż precyzja osiągnie twoje cele.fa
Problem czarnej skrzynki brzmi: przybliżenie podane przez sieć neuronową nie daje żadnego wglądu w formę f. Nie ma prostego związku między wagami a przybliżoną funkcją. Nawet analiza tego, która charakterystyka wejściowa jest nieistotna, stanowi otwarty problem (patrz ten link ).
Ponadto, z tradycyjnego punktu widzenia statystyki, sieć neuronowa jest modelem, którego nie można zidentyfikować: biorąc pod uwagę zestaw danych i topologię sieci, mogą istnieć dwie sieci neuronowe o różnych wagach i tym samym wyniku. To bardzo utrudnia analizę.
Jako przykład „modeli innych niż czarna skrzynka” lub „modeli interpretowalnych” masz równania regresji i drzewa decyzyjne. Pierwszy daje przybliżone przybliżenie formy f, w którym znaczenie każdego elementu jest wyraźne, drugi to graficzny opis niektórych względnych ilorazów ryzyka / szans.
źródło
Google opublikowało Inception-v3 . Jest to sieć neuronowa (NN) dla algorytmu klasyfikacji obrazu (odgłos kota od psa).
W artykule rozmawiają o aktualnym stanie klasyfikacji obrazów
i właśnie dlatego nazywamy NN czarnymi skrzynkami. Jeśli wytrenuję model klasyfikacji obrazu - z 10 milionami parametrów - i przekażę go tobie. Co możesz z tym zrobić?
Z pewnością możesz go uruchomić i klasyfikować obrazy. Będzie działać świetnie! Ale nie możesz odpowiedzieć na żadne z poniższych pytań, badając wszystkie wagi, błędy i strukturę sieci.
Być może możesz odpowiedzieć na pytania, po prostu uruchamiając NN i zobaczyć wynik (czarna skrzynka), ale nie masz żadnej zmiany w zrozumieniu, dlaczego zachowuje się tak, jak w skrajnych przypadkach.
źródło