Wyobraź sobie próbę stworzenia symulowanego wirtualnego środowiska, które jest wystarczająco skomplikowane, aby stworzyć „ogólną AI” (którą definiuję jako samoświadomą AI), ale jest tak proste, jak to możliwe. Jakie byłoby to minimalne środowisko?
tj. środowisko, które było po prostu szachową grą, byłoby zbyt proste. Program szachowy nie może być ogólną sztuczną inteligencją.
Środowisko, w którym wielu agentów gra w szachy i przekazuje sobie wyniki. Czy stanowiłoby to ogólną sztuczną inteligencję? (Jeśli można powiedzieć, że wielki mistrz szachowy, który myśli o szachach przez cały dzień, ma „ogólną sztuczną inteligencję”? Czy w swoim czasie myśli o szachach, czy jest on inny niż komputer szachowy?).
Co powiesz na świat podobny do 3D. To wydaje się zbyt skomplikowane. W końcu dlaczego ogólna sztuczna inteligencja nie może istnieć w świecie 2D.
Jaki byłby przykład prostego środowiska, ale nie tak prostego, że AI mogą mieć samoświadomość?
Odpowiedzi:
Myślę, że jest to jedno z najlepszych pytań związanych z AGI, jakie widziałem na tym forum.
Pominę wszystkie tematy związane z „czym jest AGI”, „grą symulacyjną”, ... Tematy te były dyskutowane przez dziesięciolecia i obecnie są, moim zdaniem, ślepym zaułkiem.
Tak więc mogę odpowiedzieć tylko na podstawie mojego osobistego doświadczenia:
Podstawowym twierdzeniem w obliczeniach jest to, że dowolną liczbę wymiarów, w tym wymiar czasowy, w skończonej przestrzeni wielkości, można zmniejszyć do 1D.
Jednak w praktycznych przykładach przedstawienie 1D staje się trudne do analizy i wizualizacji. Bardziej praktyczna jest praca z wykresami, które można postrzegać jako półprodukty między 1D a 2D. Wykresy umożliwiają przedstawienie wszystkich niezbędnych faktów i relacji.
Przykładowo, jeśli spróbujemy opracować AGI zdolne do pracy w dziedzinie matematyki, każde wyrażenie (które ludzie piszemy w postaci dwuwymiarowej z wymiernikami, indeksami dolnymi, całkami, ...) może być reprezentowane jako 1D (jako wyrażenie napisane w źródle programu), ale ten 1D musi zostać przeanalizowany, aby uzyskać wykres, który można przeanalizować lub wykonać. Zatem wykres, który powstaje po analizie wyrażenia, jest najbardziej praktyczną reprezentacją.
Kolejny przykład, jeśli chcemy agenta, który podróżuje po świecie 3D, ten świat można postrzegać jako pustą przestrzeń z obiektami o pewnych właściwościach. Ponownie, po początkowym etapie analizy sceny i rozpoznania obiektu (odpowiednik parsera w poprzednim przykładzie), dochodzimy do wykresu.
Dlatego, aby naprawdę pracować w obszarze AGI, sugeruję pominięcie problemów analizy sceny, rozpoznawania obiektów, rozpoznawania mowy (wąskie AI) i pracy bezpośrednio nad reprezentatywnymi wykresami.
źródło
Myślę, że najważniejsze jest to, że trzeba w jakiś sposób symulować czas. Pomyśl samoświadomego chatbota. Następnie, aby być „świadomym siebie”, środowisko może być danymi dostarczanymi w czasie, które można odróżnić jako „siebie” i „inne”. Wydaje mi się, że mam na myśli „jaźń” to część, na którą wywiera bezpośredni wpływ, a „inna” to część, na którą ma wpływ pośredni lub wcale. Poza tym prawdopodobnie może żyć w dość abstrakcyjnych środowiskach. Powodem, dla którego czas jest tak ważny, jest brak algorytmu poznawczego, który rozwiązuje problem matematyczny.
źródło
Ogólna sztuczna inteligencja może absolutnie istnieć w świecie 2D, tyle że uogólniona sztuczna inteligencja (zdefiniowana tutaj jako „stała siła w szeregu problemów”) w tym kontekście nadal będzie zupełnie różna od sztucznej ogólnej inteligencji , zdefiniowanej jako „algorytm, który może wykonywać wszelkie intelektualne zadania, które człowiek może wykonać. ”
Nawet tam definicja AGI jest rozmyta, ponieważ „który człowiek?” (Ludzka inteligencja to spektrum, w którym osoby mają różne stopnie zdolności rozwiązywania problemów w różnych kontekstach).
Sztuczna świadomość : Niestety, samoświadomość / świadomość jest bardzo metafizycznym zagadnieniem, odmiennym od zdolności rozwiązywania problemów (inteligencji).
Na pewno chcesz zajrzeć do „ chińskiego pokoju ” i obalić.
Prawdopodobnie warto przyjrzeć się zasadzie holograficznej : „koncepcji fizyki, w której przestrzeń jest uważana za hologram o wymiarach n-1”. Z pewnością modele i gry mogą być skonstruowane w ten sposób.
Innym miejscem do eksploracji są teorie pojawienia się superinteligencji w nieskończonej Grze życia Conwaya . (W skrócie, rozumiem, że gdy naukowcy wymyślili, jak wygenerować dowolną liczbę w automatach komórkowych, możliwość pojawienia się wrażliwości przy wystarczającej wielkości planszy jest przynajmniej teoretycznie uzasadniona.)
źródło
Z dotychczasowych odpowiedzi ta z @DukeZhou była najbardziej prowokująca. Na przykład odniesienie do krytyki chińskiego pokoju budzi przypuszczenie Searle, że jakaś forma intencjonalności może wymagać wsparcia w sztucznym środowisku. Może to oznaczać konieczność systemu wartości lub systemu łagodzenia bólu, tj. Czegoś, w którym można „doświadczyć” dobrych konsekwencji lub aktywnie poszukiwać, a złych konsekwencji można uniknąć. Lub może być konieczne rozpoznanie pewnego prawdopodobieństwa indywidualnego wyginięcia (śmierci lub rozwiązania). Możliwość „ego śmierci”może wymagać wysokiej wartości ujemnej. Może to oznaczać, że sztuczny świat powinien obejmować „inne umysły” lub inne czynniki, które wschodzący lub uczący się inteligentny agent mógłby obserwować (w pewnym sensie) i „zastanawiać się”, tj. Rozpoznawać inteligencję taką jak jej własna. W tym sensie sylogizm kartezjański „wydaje mi się, że jestem” zostaje przekształcony w: ja (a raczej ja jako AI) widzę dowody na myślenie innych i „gawd -„ ja ”też mogę”. Tymi „innymi” mogą być albo inne systemy uczenia się (AGI), albo jakiś kontakt z dyskretnymi danymi wejściowymi od ludzi za pośrednictwem sztucznego środowiska. Dyskusja Wikipedii o „odwrotnym teście Turinga”
Wzmianka o wymiarowości powinna sprowokować dyskusję na temat wymaganej głębi reprezentacji „fizyki” świata zewnętrznego względem AI. Konieczna wydaje się pewna reprezentacja czasu i przestrzeni, tj. Pewna wymiarowa struktura dla postępu w osiąganiu celu. Świat Blocks był wczesnym problemem związanym z zabawkami, którego rozwiązanie wywołało optymizm w latach 60. i 70. ubiegłego wieku, że poczyniono znaczne postępy. Nie jestem świadomy żadnego wysiłku, aby programować w jakimkolwiek bólu lub przyjemności w programie SHRDLU z tamtej epoki (bez blokowania palców u stóp programu), ale wszystkie interesujące reprezentacje AI w science fiction mają pewne rozpoznanie „fizycznych” niepożądanych konsekwencji w prawdziwym świecie".
Edycja: Dodam potrzebę „encji z funkcjami” w tym środowisku, które mogłyby być „postrzegane” (przez któregokolwiek z „innych”, którzy wchodzą w interakcje z AGI) jako dane wejściowe do wysiłków związanych z indukcją, identyfikacją i wnioskowanie o relacjach. Stwarza to podstawę do wspólnego „doświadczenia”.
źródło
Chociaż dobra odpowiedź @pasaba por aqui, zgodziłbym się z @zooby, że wykres może być zbyt uproszczony. Gdyby ludzie znajdowali się w środowisku, w którym opcje zostały utopione lub podjęli 5000 niezwiązanych kroków, aby zbudować łódź, nigdy nie przepłynęlibyśmy mórz. Myślę, że każdy wykres, jeśli zostałby zaprojektowany ręcznie, nie byłby wystarczająco skomplikowany, aby wywołać agenta w ramach ogólnej sztucznej inteligencji. Świat potrzebowałby wystarczającej liczby stanów pośrednich, aby nie najlepiej opisywać go jako wykres, ale przynajmniej przestrzeń wielowymiarową.
Myślę, że należy wziąć pod uwagę 2 punkty. Co jest „proste” i kiedy rozpoznajesz je jako „ogólną sztuczną inteligencję”. Uważam, że samoświadomość AI nie jest zadowalająca, ponieważ nie możemy zmierzyć niczego zwanego świadomością; widzimy tylko jego stan i interakcję ze środowiskiem.
Dla 1. Przypuszczam, że świat, w którym żyjemy, jest w rzeczywistości dość prosty. Istnieją 4 siły natury, kilka praw ochrony i kilka rodzajów cząstek, które wyjaśniają większość wszystkiego. Po prostu istnieje wiele takich cząstek, co doprowadziło do dość złożonego świata. Oczywiście jest to kosztowne w symulacji, ale moglibyśmy skorzystać ze skrótów. Ludzie 200 lat temu nie potrzebowaliby całej mechaniki kwantowej do wyjaśnienia świata. Gdybyśmy zastąpili protony, neutrony i silną siłę atomami w układzie okresowym, przeważnie byłoby dobrze. Problem polega na tym, że zastąpiliśmy 3 bardziej ogólne prawa 100 konkretnymi przypadkami. Myślę, że aby symulowane środowisko było wystarczająco złożone, ten trend musi się utrzymywać.
Co prowadzi mnie do 2. Myślę, że naprawdę bylibyśmy zadowoleni z agenta wyrażającego ogólną sztuczną inteligencję, gdy może on celowo wchodzić w interakcje ze środowiskiem w sposób, który by nas zaskoczył, a jednocześnie wyraźnie na tym skorzystał (więc nie przypadkowo). Teraz może to być dość trudne lub zająć bardzo dużo czasu, więc bardziej zrelaksowanym warunkiem byłoby zbudowanie narzędzi, których spodziewalibyśmy się zbudować, pokazując w ten sposób opanowanie własnego środowiska. Na przykład dowody na istnienie łodzi znaleziono między 100 000 a 900 000 lat temu, czyli mniej więcej w tej samej skali czasowej, w której rozwinęli się pierwsi ludzie. Jednak chociaż uważalibyśmy się za inteligentnych, nie jestem pewien, czy uznalibyśmy, że agent produkujący łodzie ma ogólną inteligencję, ponieważ wydaje się to dość prostym wynalazkiem. Ale myślę, że bylibyśmy zadowoleni po kilku takich wynalazkach.
Myślę więc, że potrzebowalibyśmy świata podobnego do Sima, co jest o wiele bardziej skomplikowane niż gra. Z tysiącami typów przedmiotów, wieloma wystąpieniami każdego przedmiotu i wystarczającą ilością swobody do interakcji ze wszystkim. Myślę też, że potrzebujemy czegoś, co wygląda znajomo, aby uznać każdego agenta za inteligentnego. Tak więc trójwymiarowy, skomplikowany świat podobny do minecrafta byłby najprostszym światem, w którym rozpoznalibyśmy pojawienie się ogólnej inteligencji.
źródło
„Sztuczna inteligencja ogólna” to coś innego niż agent, który inteligentnie działa w otoczeniu. Ponieważ zgodnie z literaturą takie czynniki nazywane są „wąską AI”. System AGI to środowisko. Oznacza to, że najnowszym wyzwaniem Micromouse jest system AGI, którego celem jest rozwój systemów wąskiej sztucznej inteligencji.
Opracowanie AGI jest równoznaczne z opracowaniem konkursu robotyki. Jest sformalizowany w zbiorze reguł i działa jako środowisko do nauki, programowania oprogramowania i omawiania wyników. W każdym razie system AGI jest konkursem społecznym, co oznacza, że drużyny mogą brać udział w zawodach. AGI nie odpowiada, jak zrealizować inteligencję, jest to test do jej pomiaru. Tak zwane ludzkie mózgi, architektura poznawcza i ogólne rozwiązywanie problemów nie zostały opracowane jako wąska sztuczna inteligencja do inteligentnego działania, lecz zostały opracowane jako test Turinga dla inteligentnej maszyny.
Jak możemy zmierzyć za pomocą programu komputerowego, jeśli inny program komputerowy jest inteligentny? Jedną z możliwości jest teoria symulacji człowieka. Oznacza to, że sprawdzamy, czy program komputerowy zachowuje się jak człowiek, a test Turinga ma obowiązek przetestować pamięć krótkotrwałą, pamięć długoterminową i umiejętność uczenia się nowych rzeczy. W najprostszej formie test Turinga można wykonać prostym formularzem, który musi być wypełniony przez człowieka, ale możliwe jest również wyjęcie człowieka z pętli i użycie komputera do przetestowania inteligencji innego komputera . W tym celu opracowano SOAR, OpenCog i AIXI.
źródło