Jakie są niezbędne składniki, aby agent AI mógł sam się programować?

9

Często uważa się, że agent AI ma „czujniki”, „pamięć”, „procesory uczenia maszynowego” i „reakcję”. Jednak maszyna z nimi niekoniecznie staje się samoregulującym agentem AI. Czy poza częściami wymienionymi powyżej istnieją inne elementy lub szczegóły niezbędne do tego, aby maszyna mogła być samoregulującym agentem AI?

Na przykład w dokumencie z 2011 r. Zadeklarowano, że rozwiązanie problemu optymalizacji polegającego na maksymalizacji inteligencji jest niezbędną cechą procesu samoregulacji, jak cytowano poniżej:

Mówi się, że system realizuje instancję samoprogramowania, gdy przechodzi naukę dotyczącą jakiegoś elementu swojej „infrastruktury poznawczej”, przy czym ten ostatni jest definiowany jako zamazany zestaw „krytycznych dla inteligencji” cech systemu; a krytyczność inteligencji funkcji systemowej jest definiowana jako „jakość funkcji” rozpatrywana z perspektywy rozwiązania problemu optymalizacji polegającego na maksymalizacji inteligencji systemu wielofunkcyjnego.

Jednak opis „optymalizacji inteligencji” jest niejasny. Czy ktoś może podać jasną definicję lub lepsze podsumowanie niezbędnych komponentów dla agentów samoregulujących?

To pytanie pochodzi z zamkniętej wersji beta 2014, a pytający ma UID równy 23.

Mityczny
źródło
3
Oto ostatnie słowo na temat optymalizacji: arxiv.org/abs/cs/0309048
NietzscheanAI
Dzięki za odrodzenie utraconej i dobrej zawartości w utraconej wersji beta. :-)
Peter - Przywróć Monikę

Odpowiedzi:

5

Na najwyższym poziomie wystarczy, aby różne omówione wcześniej systemy zawierały obiekty kodu. Jeśli potrafi zinterpretować architekturę kodu źródłowego / modelu na podstawie sformatowanych obiektów tekstowych, na których się opiera, może „zrozumieć” je pod kątem posiadania użytecznego modelu ML i zmienić kod wraz z reakcją, to może sam się zaprogramować.

Oznacza to, że podstawowa pętla rekurencyjnie poprawiającej się inteligencji jest prosta. Bada się, pisze nową wersję, a następnie ta nowa wersja bada się i pisze nową wersję i tak dalej.

Trudny element występuje na niższych poziomach. Nie musimy wymyślać nowej koncepcji, takiej jak „czujnik”, musimy jedynie zbudować bardzo, bardzo wyrafinowane czujniki, które są równoznaczne z zadaniem zrozumienia kodu na tyle dobrze, aby wykryć i napisać ulepszenia.

Matthew Graves
źródło
2
Chociaż reakcja informatyki na oświadczenia o systemach, które rozumieją ich własny kod, często przytacza problem zatrzymania, okazuje się, że podejścia AI mają coś użytecznego do powiedzenia na ten temat: cs.stackexchange.com/questions/62393/ …
NietzscheanAI
3
Zgadza się, problem zatrzymania jest twierdzeniem , że nie ma mowy o pełnym zrozumieniu całego możliwego kodu, ale nie powstrzymuje go przed dobrym zrozumieniem większości kodu, na który się natkniesz.
Matthew Graves,
Realistycznie problem zatrzymania dotyczy tylko „maszyn tokarskich”, które są czysto matematycznymi konstrukcjami, które tak naprawdę nie mogą istnieć (wymagają na przykład nieskończonej taśmy do nieograniczonej pamięci) i mogą działać przez nieskończony czas. Komputery świata rzeczywistego mają ograniczoną ilość pamięci. Istnieją sposoby pisania oprogramowania, które można formalnie zweryfikować (Idris, Coq). Korzystanie z typów zależnych. Ogranicz rozmiar tablicy (tj. <Ilość lub ram). Nie zezwalanie programowi na modyfikowanie się w pamięci w sposób, który mógłby naruszać formalne dowody. Brak nieskończonych pętli. Brak pętli bajtowej / dzielenia przez zero. Itd ...
David C. Bishop