Czy istnieje jakikolwiek argument naukowy / matematyczny, który uniemożliwia głębokiemu uczeniu się tworzenie silnej sztucznej inteligencji?

12

Przeczytałem „ Księgę powodu” Judei Pearl , w której wspomina, że ​​głębokie uczenie się to tylko chwalebna technologia dopasowania krzywej i nie będzie ona w stanie wytworzyć inteligencji podobnej do człowieka.

W jego książce znajduje się diagram ilustrujący trzy poziomy zdolności poznawczych:

Trzy poziomy zdolności poznawczych

Chodzi o to, że „inteligencja” wytwarzana przez obecną technologię głębokiego uczenia się występuje tylko na poziomie skojarzeń. Zatem sztuczna inteligencja nie jest na poziomie zadawania pytań, takich jak „jak sprawić, żeby Y się stało” (interwencja) i „A jeśli zachowałbym się inaczej, czy X nadal będzie występować?” (kontrfaktyczne) i jest mało prawdopodobne, aby techniki dopasowywania krzywych kiedykolwiek zbliżyły nas do wyższego poziomu zdolności poznawczych.

Uważam, że jego argument jest przekonujący na poziomie intuicyjnym, ale nie jestem w stanie znaleźć żadnych praw fizycznych ani matematycznych, które mogłyby wzmocnić lub podważyć ten argument.

Czy jest więc jakiś argument naukowy / fizyczny / chemiczny / biologiczny / matematyczny, który uniemożliwia głębokiemu uczeniu się wytworzenie silnej sztucznej inteligencji (inteligencji podobnej do człowieka)?

Grawiton
źródło
Kilka godzin temu mieliśmy Quetion, który mówi o neuronauce i sztucznej inteligencji, więc myślę, że to pytanie jest odpowiednie w aplikacjach danych, to jest poza uczeniem maszynowym.
kwintumnia
1
Jednym z problemów, na które trzeba odpowiedzieć, jest to, że „Głębokie uczenie się” jest rodzajem marki, w której rzeczy wykonane za pomocą sieci neuronowych, które wykraczają poza dopasowanie krzywej statystycznej - np. RNN dla sekwencji uczenia się i „uczenie się głębokiego wzmocnienia” - mogą również uważani za jego część przez zwolenników. Jeśli pozwolisz, aby ten termin ewoluował w ten sposób, bardzo trudno jest podważyć wszelkie spory dotyczące jego możliwości.
Neil Slater
twierdzenie o niekompletności
godela
2
@ thecomplexitytheorist: niekompletność Godela, entscheidungsproblem i podobne, wszystkie one dotyczą również ludzkiego umysłu. Podsumowując, jeśli były powodem, dla którego nie udało się osiągnąć AI, to żaden z ludzi nie jest inteligentny. Modus tollens, Godels nie stanowi problemu na drodze do AGI
pasaba por aqui
Kto powiedziałby, że „robienie” i „wyobrażanie sobie” nie jest po prostu „dopasowywaniem się do krzywej” w mózgu?
Dunk

Odpowiedzi:

3

Komentarz Judei Pearl z 2018 r. Na ACM.org, w swojej książce „ Zbuduj naprawdę inteligentne maszyny, nauczaj ich przyczyny i skutku”, jest przeszywającą prawdą.

Wszystkie imponujące osiągnięcia głębokiego uczenia się sprowadzają się do dopasowania krzywej.

Rn

  1. Sztuczne sieci nie mogą wykonywać logiki.
  2. Sztuczne sieci to najlepsze podejście do sztucznej inteligencji.

Jak można wykluczyć racjonalność z listy ważnych ludzkich cech inteligencji, co oznaczałyby te dwa twierdzenia razem?

Czy ludzki mózg to sieć wyrafinowanych monterów krzywych? Słynny cytat Marvina Minsky'ego „Mózg okazuje się maszyną mięsną” został zaproponowany bez dowodu, a od tego czasu nie przedstawiono ani dowodu jego trywializacji ludzkiego mózgu, ani dowodu, że mózg jest poza zasięgiem obliczeń Turinga. .

Kiedy czytasz te słowa, czy twoje sieci neuronowe wykonują następującą sekwencję dopasowań krzywych?

  • Krawędzie prętów i stożków siatkówki
  • Linie od krawędzi
  • Kształty z linii
  • Litery z kształtów
  • Elementy językowe z grup liter
  • Struktury językowe z elementów
  • Zrozumienie ze struktur językowych

Argumentacja jest silna dla potwierdzenia, że ​​pierwsze pięć jest mechanizmem konwergencji w modelu, a cała struktura uczenia maszynowego jest tylko metodą dopasowania danych do modelu.

Te dwa ostatnie punkty są tam, gdzie załamuje się paradygmat i gdzie wielu badaczy i autorów sztucznej inteligencji słusznie stwierdziło, że uczenie maszynowe ma znaczące ograniczenia, gdy opiera się wyłącznie na wielowarstwowych perceptronach i jądrach splotu. Co więcej, ostatni pocisk jest rażąco nadmiernie uproszczony w obecnym stanie, prawdopodobnie o rząd wielkości. Nawet jeśli Minsky ma rację, że komputer może wykonywać to, co robi mózg, proces czytania i rozumienia tego akapitu może z łatwością zawierać tysiące różnych rodzajów unikalnych elementów procesu we wzorcach wewnętrznego przepływu pracy z ogromną równoległością. Technologia obrazowania wskazuje na to prawdopodobieństwo. Mamy komputery modelujące tylko najprostsze warstwy peryferyjne.

Czy istnieje jakikolwiek argument naukowy / matematyczny, który uniemożliwia głębokiemu uczeniu się tworzenie silnej sztucznej inteligencji? - Nie. Ale nie ma takiego argumentu, który by to gwarantował.

Inne pytania tutaj badają, czy ci wyrafinowani monterów krzywej mogą wykonywać elementy poznania lub rozumowania.

Totem trzech na obrazie pytania, widząc, wykonując i wyobrażając, nie jest szczególnie kompletny, dokładny ani wnikliwy.

  • Istnieje co najmniej pięć paradygmatów sensorycznych u ludzi, a nie jeden
  • Postępowanie poprzedzało ludzkie zmysły miliardami lat - bakterie
  • Wyobraźnia nie jest procesem znacznie wyższym niż powtórzenie scenariusza z modeli z poprzednich doświadczeń z pewną metodą zastosowania zestawów funkcji do ich łączenia i wstrzykiwania losowych mutacji
  • Kreatywność może być tylko wyobrażeniem w poprzednim punkcie, a następnie wyeliminowaniem bezużytecznych wyników wyobraźni z pewnymi rynkowymi kryteriami jakości, pozostawiając imponujące kreatywne produkty, które sprzedają się

Wyższe formy to uznanie, poczucie rzeczywistości poza zasięgiem naukowego pomiaru, uzasadnione wątpliwości, miłość, poświęcenie dla dobra innych lub ludzkości.

Wielu uznaje, że obecny stan technologii sztucznej inteligencji nie jest bliski zakupowi systemu, który w wiarygodny sposób odpowie na pytanie: „Jak sprawić, żeby Y się stało?”. lub „Jeśli postąpiłem inaczej, czy X nadal występuje?”

Nie ma matematycznego dowodu, że jakaś kombinacja elementów dopasowujących małą krzywą może, ale nie może, uzyskać odpowiedzi na te pytania, tak jak typowa istota ludzka, głównie dlatego, że nie ma wystarczającego zrozumienia, czym jest inteligencja lub jak ją zdefiniować w kategoriach matematycznych.

Możliwe jest również, że ludzka inteligencja w ogóle nie istnieje, że odniesienia do niej opierają się na przekonaniu religijnym, że jesteśmy wyżsi jako gatunek niż inne gatunki. To, że możemy zasiedlać, konsumować i eksterminować, nie jest tak naprawdę bardzo inteligentną koncepcją inteligencji.

Twierdzenie, że ludzka inteligencja jest adaptacją, która odróżnia nas od innych ssaków, powoduje konflikt z tym, czy dobrze się przystosowujemy. Nie zostaliśmy przetestowani. Przyjdź następny meteoriczny zabójca globalny z falą uderzeniową wielkości meteoru w kraterze Chicxulub, a następnie kilka tysięcy lat słonecznej zimy i przekonamy się, czy to nasza 160 000-letnia egzystencja, czy bakteria 4 000 000 000 letnia egzystencja okazuje się bardziej zrównoważony. Na osi czasu życia inteligencja ludzka musi jeszcze okazać się znacząca jako cecha adaptacyjna.

W rozwoju AI oczywiste jest, że inne rodzaje systemów odgrywają rolę wraz z głębokimi uczniami opartymi na wielowarstwowej koncepcji perceptronów i jądrach splotu, które są ściśle monterami powierzchniowymi.

Komponenty Q-learning, komponenty oparte na uwadze i komponenty pamięci krótkoterminowej są również ściśle dopasowane do powierzchni, ale tylko poprzez znaczne rozszerzenie definicji dopasowania powierzchni. Mają właściwości i stan adaptacyjny w czasie rzeczywistym, dzięki czemu mogą być kompletne.

Kontenery logiczne rozmyte, systemy oparte na regułach, algorytmy o właściwościach Markoviana i wiele innych typów komponentów również odgrywają swoją rolę i wcale nie są instalatorami powierzchni.

Podsumowując, przedstawione są punkty, które mają podstawy nie tylko wiarygodności, ale także przyjemną intuicyjną jakość, jednak wielu z tych autorów nie zapewnia ram matematycznych z definicjami, zastosowaniami, lematami, twierdzeniami, dowodami, a nawet eksperymentami myślowymi, które mogą być sprawdzone formalnie.

Douglas Daseeco
źródło
1

Jest to paradoks, ale maszyna do głębokiego uczenia się (zdefiniowana jako wariant NeuralNet) nie jest w stanie się niczego nauczyć. Jest to elastyczna i konfigurowalna architektura sprzętu / oprogramowania, którą można sparametryzować w celu rozwiązania wielu problemów. Ale optymalne parametry do rozwiązania problemu uzyskuje system zewnętrzny, tj. Algorytm propagacji wstecznej.

Podsystem propagacji wstecznej wykorzystuje konwencjonalne paradygmaty programowania, nie jest to sieć neuronowa. Fakt ten jest całkowicie sprzeczny z ludzkim umysłem, w którym uczenie się i korzystanie z wiedzy odbywa się przez ten sam system (umysł).

Jeśli wszystkie naprawdę interesujące rzeczy są wykonywane poza NN, trudno jest twierdzić, że NN (w dowolnym wariancie) może rozwinąć się w AGI.

Można również znaleźć więcej różnic. Sieci neuronowe są silnie numeryczne w swoim interfejsie i elementach wewnętrznych. Z tego punktu widzenia są one ewolucją maszyn wektorów nośnych.

Zbyt wiele różnic i ograniczeń, aby oczekiwać AGI.

Uwaga: zdecydowanie nie zgadzam się z losowaniem zawartym w pierwotnym pytaniu. „Widzenie”, „robienie”, „obrazowanie” to poziomy absolutnie błędne. Ignoruje podstawowe i powszechne koncepcje oprogramowania, takie jak „abstrakcja” lub „stan programu” (oczywiście w słowach Turinga); zastosowali AI jako „przewidywać”; i AGI jako „wolna wola”, „cele i uczucia”, ...

pasaba por aqui
źródło
4
Myślę, że usunięcie wstecznej propagacji (lub jakiejkolwiek części ram szkoleniowych) z rozważań, a twierdzenie, że pozostała część to część „Głębokiego uczenia się”, jest sztuczne i niejako unikanie pytania. Myślę, że uzasadnione jest założenie, że OP oznacza głębokie uczenie się w praktyce, w tym dostępne procesy szkoleniowe.
Neil Slater
1
@NeilSlater: Jeśli mówimy, że DL jest rodzajem NeuralNet (w celu zauważenia podobieństwa z ludzkim umysłem i, w konsekwencji, jego możliwej mocy do osiągnięcia AGI), wykluczamy część uczenia się, która nie jest NN . Jeśli uwzględnimy podsystem uczenia się w definicji DL, to nie jest to NN, to tylko konwencjonalne programowanie, z mocą dowolnego konwencjonalnego programu, i ma takie same możliwości osiągnięcia AGI niż jakikolwiek inny system programu lub paradygmat.
pasaba por aqui
Ludzki mózg uczy się, przyjmując i przetwarzając dane wejściowe wyłącznie z zewnętrznych „systemów”. Optymalne parametry do rozwiązywania problemów uzyskuje się metodą prób i błędów, stosując reguły i przetwarzanie danych wejściowych z systemów zewnętrznych. Trening rozpoczyna się, gdy dziecko jest jeszcze w macicy i trwa 24 godziny na dobę, 7 dni w tygodniu. Obecny stan sztucznej inteligencji prawie na pewno nie jest porównywalny z naśladowaniem ludzkiego mózgu; ale twierdzenie, że sztuczna inteligencja nie może się uczyć (lub nie uczy się już w podobny sposób do ludzkiego mózgu), zakłada wiedzę o tym, w jaki sposób mózg „uczy się” i funkcjonuje, czego nauka jeszcze nie zna.
Dunk