Przeczytałem „ Księgę powodu” Judei Pearl , w której wspomina, że głębokie uczenie się to tylko chwalebna technologia dopasowania krzywej i nie będzie ona w stanie wytworzyć inteligencji podobnej do człowieka.
W jego książce znajduje się diagram ilustrujący trzy poziomy zdolności poznawczych:
Chodzi o to, że „inteligencja” wytwarzana przez obecną technologię głębokiego uczenia się występuje tylko na poziomie skojarzeń. Zatem sztuczna inteligencja nie jest na poziomie zadawania pytań, takich jak „jak sprawić, żeby Y się stało” (interwencja) i „A jeśli zachowałbym się inaczej, czy X nadal będzie występować?” (kontrfaktyczne) i jest mało prawdopodobne, aby techniki dopasowywania krzywych kiedykolwiek zbliżyły nas do wyższego poziomu zdolności poznawczych.
Uważam, że jego argument jest przekonujący na poziomie intuicyjnym, ale nie jestem w stanie znaleźć żadnych praw fizycznych ani matematycznych, które mogłyby wzmocnić lub podważyć ten argument.
Czy jest więc jakiś argument naukowy / fizyczny / chemiczny / biologiczny / matematyczny, który uniemożliwia głębokiemu uczeniu się wytworzenie silnej sztucznej inteligencji (inteligencji podobnej do człowieka)?
źródło
Odpowiedzi:
Komentarz Judei Pearl z 2018 r. Na ACM.org, w swojej książce „ Zbuduj naprawdę inteligentne maszyny, nauczaj ich przyczyny i skutku”, jest przeszywającą prawdą.
Jak można wykluczyć racjonalność z listy ważnych ludzkich cech inteligencji, co oznaczałyby te dwa twierdzenia razem?
Czy ludzki mózg to sieć wyrafinowanych monterów krzywych? Słynny cytat Marvina Minsky'ego „Mózg okazuje się maszyną mięsną” został zaproponowany bez dowodu, a od tego czasu nie przedstawiono ani dowodu jego trywializacji ludzkiego mózgu, ani dowodu, że mózg jest poza zasięgiem obliczeń Turinga. .
Kiedy czytasz te słowa, czy twoje sieci neuronowe wykonują następującą sekwencję dopasowań krzywych?
Argumentacja jest silna dla potwierdzenia, że pierwsze pięć jest mechanizmem konwergencji w modelu, a cała struktura uczenia maszynowego jest tylko metodą dopasowania danych do modelu.
Te dwa ostatnie punkty są tam, gdzie załamuje się paradygmat i gdzie wielu badaczy i autorów sztucznej inteligencji słusznie stwierdziło, że uczenie maszynowe ma znaczące ograniczenia, gdy opiera się wyłącznie na wielowarstwowych perceptronach i jądrach splotu. Co więcej, ostatni pocisk jest rażąco nadmiernie uproszczony w obecnym stanie, prawdopodobnie o rząd wielkości. Nawet jeśli Minsky ma rację, że komputer może wykonywać to, co robi mózg, proces czytania i rozumienia tego akapitu może z łatwością zawierać tysiące różnych rodzajów unikalnych elementów procesu we wzorcach wewnętrznego przepływu pracy z ogromną równoległością. Technologia obrazowania wskazuje na to prawdopodobieństwo. Mamy komputery modelujące tylko najprostsze warstwy peryferyjne.
Inne pytania tutaj badają, czy ci wyrafinowani monterów krzywej mogą wykonywać elementy poznania lub rozumowania.
Totem trzech na obrazie pytania, widząc, wykonując i wyobrażając, nie jest szczególnie kompletny, dokładny ani wnikliwy.
Wyższe formy to uznanie, poczucie rzeczywistości poza zasięgiem naukowego pomiaru, uzasadnione wątpliwości, miłość, poświęcenie dla dobra innych lub ludzkości.
Wielu uznaje, że obecny stan technologii sztucznej inteligencji nie jest bliski zakupowi systemu, który w wiarygodny sposób odpowie na pytanie: „Jak sprawić, żeby Y się stało?”. lub „Jeśli postąpiłem inaczej, czy X nadal występuje?”
Nie ma matematycznego dowodu, że jakaś kombinacja elementów dopasowujących małą krzywą może, ale nie może, uzyskać odpowiedzi na te pytania, tak jak typowa istota ludzka, głównie dlatego, że nie ma wystarczającego zrozumienia, czym jest inteligencja lub jak ją zdefiniować w kategoriach matematycznych.
Możliwe jest również, że ludzka inteligencja w ogóle nie istnieje, że odniesienia do niej opierają się na przekonaniu religijnym, że jesteśmy wyżsi jako gatunek niż inne gatunki. To, że możemy zasiedlać, konsumować i eksterminować, nie jest tak naprawdę bardzo inteligentną koncepcją inteligencji.
Twierdzenie, że ludzka inteligencja jest adaptacją, która odróżnia nas od innych ssaków, powoduje konflikt z tym, czy dobrze się przystosowujemy. Nie zostaliśmy przetestowani. Przyjdź następny meteoriczny zabójca globalny z falą uderzeniową wielkości meteoru w kraterze Chicxulub, a następnie kilka tysięcy lat słonecznej zimy i przekonamy się, czy to nasza 160 000-letnia egzystencja, czy bakteria 4 000 000 000 letnia egzystencja okazuje się bardziej zrównoważony. Na osi czasu życia inteligencja ludzka musi jeszcze okazać się znacząca jako cecha adaptacyjna.
W rozwoju AI oczywiste jest, że inne rodzaje systemów odgrywają rolę wraz z głębokimi uczniami opartymi na wielowarstwowej koncepcji perceptronów i jądrach splotu, które są ściśle monterami powierzchniowymi.
Komponenty Q-learning, komponenty oparte na uwadze i komponenty pamięci krótkoterminowej są również ściśle dopasowane do powierzchni, ale tylko poprzez znaczne rozszerzenie definicji dopasowania powierzchni. Mają właściwości i stan adaptacyjny w czasie rzeczywistym, dzięki czemu mogą być kompletne.
Kontenery logiczne rozmyte, systemy oparte na regułach, algorytmy o właściwościach Markoviana i wiele innych typów komponentów również odgrywają swoją rolę i wcale nie są instalatorami powierzchni.
Podsumowując, przedstawione są punkty, które mają podstawy nie tylko wiarygodności, ale także przyjemną intuicyjną jakość, jednak wielu z tych autorów nie zapewnia ram matematycznych z definicjami, zastosowaniami, lematami, twierdzeniami, dowodami, a nawet eksperymentami myślowymi, które mogą być sprawdzone formalnie.
źródło
Jest to paradoks, ale maszyna do głębokiego uczenia się (zdefiniowana jako wariant NeuralNet) nie jest w stanie się niczego nauczyć. Jest to elastyczna i konfigurowalna architektura sprzętu / oprogramowania, którą można sparametryzować w celu rozwiązania wielu problemów. Ale optymalne parametry do rozwiązania problemu uzyskuje system zewnętrzny, tj. Algorytm propagacji wstecznej.
Podsystem propagacji wstecznej wykorzystuje konwencjonalne paradygmaty programowania, nie jest to sieć neuronowa. Fakt ten jest całkowicie sprzeczny z ludzkim umysłem, w którym uczenie się i korzystanie z wiedzy odbywa się przez ten sam system (umysł).
Jeśli wszystkie naprawdę interesujące rzeczy są wykonywane poza NN, trudno jest twierdzić, że NN (w dowolnym wariancie) może rozwinąć się w AGI.
Można również znaleźć więcej różnic. Sieci neuronowe są silnie numeryczne w swoim interfejsie i elementach wewnętrznych. Z tego punktu widzenia są one ewolucją maszyn wektorów nośnych.
Zbyt wiele różnic i ograniczeń, aby oczekiwać AGI.
Uwaga: zdecydowanie nie zgadzam się z losowaniem zawartym w pierwotnym pytaniu. „Widzenie”, „robienie”, „obrazowanie” to poziomy absolutnie błędne. Ignoruje podstawowe i powszechne koncepcje oprogramowania, takie jak „abstrakcja” lub „stan programu” (oczywiście w słowach Turinga); zastosowali AI jako „przewidywać”; i AGI jako „wolna wola”, „cele i uczucia”, ...
źródło