W kontekście sztucznej inteligencji osobliwość odnosi się do pojawienia się sztucznej inteligencji ogólnej zdolnej do rekurencyjnego samodoskonalenia, prowadzącej do szybkiego pojawienia się sztucznej superinteligencji (ASI), której granice są nieznane, wkrótce po osiągnięciu osobliwości technologicznej . Dlatego te superinteligencje byłyby w stanie rozwiązać problemy, których być może nie bylibyśmy w stanie rozwiązać.
Według sondażu zgłoszonego w Przyszłe postępy w sztucznej inteligencji: badanie opinii ekspertów (2014)
Mediana szacunków respondentów była dla jednej na dwie szanse, że inteligencja maszyn na wysokim poziomie zostanie opracowana około 2040-2050
co nie jest bardzo daleko.
Co jest złego w tym, że sztuczna inteligencja będzie zdolna do wszechwiedzy, skoro może rozwiązać problem wielu problemów?
Pytanie jest dobre i dla wielu ludzi. Istnieje kilka nieporozumień w linii myślenia do rozważenia.
Jeśli chcesz świata lepszego niż świat kontrolowany przez ludzką inteligencję, to jednym z kierunków, który należy obrać, jest poszukiwanie rozwoju nowego gatunku z bardziej zaawansowaną koncepcją spokojnej cywilizacji, która może nas oswoić i oswoić, tak jak to zrobiliśmy z psami i koty
Łatwiejszą drogą jest dla nas wszystkich śmierć. Biosfera mogła być bardziej cywilizowana, zanim przyjechaliśmy i zaczęliśmy zabijać wszystko i siebie nawzajem. Ale to nie moja nadzieja.
Moje zalecenie polega na tym, że badamy NI (nie-wywiad) i odkrywamy, jak pozbyć się głupoty z ludzkich zachowań i interakcji geopolitycznych. To poprawiłoby świat znacznie bardziej niż rozpraszające uwagę i zasadniczo nieistotne gadżety i aplikacje do uczenia maszynowego.
źródło
Oto kilka problemów, które wymyślił mój małpi umysł.
1.Smart! = Wszystko wiedząc
Eksplozja samodoskonalenia AI czyni ją mądrzejszą. Bycie mądrzejszym nie oznacza poznania większej liczby faktów. Myślę, że to dość wybredny argument, ale myślę, że warto o tym pomyśleć.
Bardzo mądry lekarz, który nie zna twojej historii, może nadal dokonać gorszego wyboru niż mniej inteligentny z lepszymi danymi.
2. Czy to wszystko dla ludzi? Czy to dla wszystkich ludzi?
ASI, który osiąga wyższy poziom, nie może być zainteresowany naszym samopoczuciem.
Kontrolowany ASI może nadal działać tylko dla nielicznych, jeśli ci nieliczni zdecydują się na złe cele, moglibyśmy cofnąć się.
3 trudne ASI
Umysł naukowy niekoniecznie pełen współczucia lub empatii.
4. Bycie mądrym i niemądrym
Wielkie umysły wciąż popełniają błędy: * w ustalaniu swoich celów i * w realizacji planu, aby go osiągnąć.
Intelekt geata nie gwarantuje braku celowości ani braku martwych punktów.
5. Limity
Jeśli istnieją granice egzystencji (ograniczenia prędkości typu światła), wtedy AI również będzie nimi podlegać. Może to oznaczać, że są rzeczy, których nawet ASI nie dostanie. Ponieważ nasz umysł może mieć ograniczenia oparte na swojej strukturze, kolejna sztuczna inteligencja może mieć również ograniczenia - i nawet jeśli poprawi się uppn, może osiągnąć granice, których nie może znaleźć rozwiązań, ponieważ jest „zbyt głupie”.
6. Nie dostaniemy tego
Zrozumienie przez ASI niektórych aspektów świata może nie być komunikatywne dla większości ludzi. Po prostu tego nie dostaniemy (nawet jeśli jesteśmy w stanie wszystko zrozumieć, to nie znaczy, że to zrozumiemy).
7. Jak z niego korzystać?
Możemy sami siebie zniszczyć, a sztuczna inteligencja dzięki technologii, którą pomaga nam budować. To nie musi być bomba. Może to być geoinżynieria lub cudowne leki.
Jest to szczególnie intensywne, gdy ASI jest już potężny, ale niewystarczająco silny, aby przewidzieć negatywne konsekwencje (lub i tak go zignorujemy).
źródło