Przeczytałem kilka artykułów na temat ręcznego tworzenia obrazów w celu „oszukania” sieci neuronowej (patrz poniżej).
Czy to dlatego, że sieci modelują tylko prawdopodobieństwo warunkowe ?
Jeśli sieć może modelować wspólne prawdopodobieństwo , czy takie przypadki nadal występują?p ( y , x )
Domyślam się, że takie sztucznie generowane obrazy różnią się od danych treningowych, więc mają małe prawdopodobieństwo . Dlatego powinno być niskie, nawet jeśli może być wysokie dla takich obrazów.p ( y , x ) p ( y | x )
Aktualizacja
Wypróbowałem kilka modeli generatywnych, okazało się, że to nie jest pomocne, więc myślę, że prawdopodobnie jest to konsekwencja MLE?
Mam na myśli, że w przypadku gdy rozbieżność KL jest używana jako funkcja straty, wartość gdzie jest mała, nie wpływa na stratę. Zatem dla skonstruowanego obrazu, który nie pasuje do , wartość może być dowolna.p d a t a ( x ) p d a t a p θ
Aktualizacja
Znalazłem blog Andreja Karpathy, który pokazuje
Wyniki te nie są specyficzne dla obrazów, sieci ConvNets i nie stanowią też „wady” w głębokim uczeniu się.
WYJAŚNIANIE I PRZESYŁANIE PRZYKŁADÓW ADVERSARIALNYCH Głębokie sieci neuronowe można łatwo oszukać: przewidywania o wysokim poziomie pewności dla nierozpoznawalnych obrazów
Odpowiedzi:
Modele, o których mówisz, nazywane są modelami „generatywnymi”, a nie dyskryminacyjnymi, i nie są tak naprawdę skalowane do danych o dużych wymiarach. Jednym z sukcesów NN w zadaniach językowych jest przejście od modelu generatywnego (HMM) do „bardziej” modelu dyskryminacyjnego (np. MEMM stosuje regresję logistyczną, która umożliwia efektywne wykorzystanie danych kontekstowych https://en.wikipedia.org/ wiki / Hidden_Markov_model # Extensions )
Twierdziłbym, że powodem, dla którego zostali oszukani, jest bardziej ogólny problem. Jest to obecna dominacja „płytkiej” sztucznej inteligencji opartej na ML nad bardziej wyrafinowanymi metodami. [w wielu artykułach wspomniano, że inne modele ML można łatwo oszukać - http://www.kdnuggets.com/2015/07/deep-learning-adversarial-examples-misconceptions.html - Ian Goodfellow]
najskuteczniejszym „modelem językowym” dla wielu zadań jest „worek słów”. Nikt nie twierdziłby, że reprezentuje to sensowny model ludzkiego języka. nietrudno sobie wyobrazić, że tego rodzaju modele można łatwo oszukać.
podobnie zadania z zakresu widzenia komputerowego, takie jak rozpoznawanie obiektów, zostały zrewolucjonizowane przez „wizualny worek słów”, który zdmuchnął bardziej wymagające obliczeniowo metody (których nie można zastosować do ogromnych zbiorów danych).
CNN są, moim zdaniem, lepszym „wizualnym woreczkiem słów” - jak widać na zdjęciach, błędy popełniane są na poziomie pikseli / funkcji niskiego poziomu; pomimo całej hiperboli nie ma reprezentacji wysokiego poziomu w ukrytych warstwach - (wszyscy popełniają błędy, chodzi o to, że osoba popełniłaby „błędy” z powodu cech wyższego poziomu i rozpoznałaby np. kreskówkę kota, której nie popełniam ” wierzyć, że NN by).
Przykładem bardziej wyrafinowanego modelu widzenia komputerowego (który działa gorzej niż NN) jest np. Model „części odkształcalnych”.
źródło
O ile mi wiadomo, większość sieci neuronowych nie stosuje a priori rozkładu prawdopodobieństwa na obrazach wejściowych. Można jednak interpretować wybór zestawu treningowego jako taki rozkład prawdopodobieństwa. W tym widoku jest mało prawdopodobne, aby te sztucznie wygenerowane obrazy były wybierane jako obrazy w zestawie testowym. Jednym ze sposobów pomiaru „wspólnego prawdopodobieństwa” byłoby losowe generowanie obrazów, a następnie ich oznaczanie. Problem polegałby na tym, że ogromna większość VAST nie miałaby żadnej etykiety. Uzyskanie rozsądnej liczby oznaczonych przykładów zajęłoby zbyt dużo czasu.
źródło