Teoretycznie, czy sztuczna inteligencja mogłaby stać się odczuwalna, tak jak podczas uczenia się i samoświadomości, wszystko z kodu źródłowego?
źródło
Teoretycznie, czy sztuczna inteligencja mogłaby stać się odczuwalna, tak jak podczas uczenia się i samoświadomości, wszystko z kodu źródłowego?
Teoretycznie, gdyby można było zbudować urządzenie komputerowe, które odpowiadałoby lub przekraczało możliwości poznawcze czującej istoty, powinno to być możliwe.
(Zwolennicy Singlarity wierzą, że pewnego dnia będziemy w stanie przenieść ludzki umysł na sztuczną platformę komputerową, i logicznie wynika z tego, że można „zhakować” taki umysł lub zbudować od podstaw, aby stworzyć prawdziwie sztuczną inteligencję.)
Ale może to być jak moc syntezy jądrowej, gdzie stare powiedzenie głosi, że „zawsze dzieli nas 20 lat”.
Sentience to kolejny termin sztucznej inteligencji bez standardowej definicji. Może to oznaczać, że system ma wkład sensoryczny, emocje lub tworzy subiektywną opinię na temat tego, co wyczuwa. Żadne z nich nie wymaga żadnego rodzaju elementów nie przyczynowych ani metafizycznych, więc granice wyobrażone dla AI przez tych, którzy proponują, że AI nigdy nie będzie mieć wolnej woli lub dusza tak naprawdę nie ma zastosowania.
To, czy sztuczna inteligencja ma wejście sensoryczne, jest funkcją całego projektu systemu. AI ma już sensoryczne dane wejściowe w kilku produktach działających obecnie w swojej dziedzinie.
To, czy AI będzie wywoływać emocje, jest prawdopodobne, ponieważ emocje są bardziej ogólnym stanem, który wpływa na wiele neuronów i ma pewien pęd (ponieważ opiera się na chemicznym wydzielaniu, agonizmie, antagonizmie, pobraniu i metabolizmie) i takie cechy konstrukcyjne prawdopodobnie wejdą w Skrzynka narzędziowa AI.
To, czy AI sformułuje subiektywne opinie, będzie zależeć od tego, jak głęboko poznawanie będzie realizowane w komputerach. Niektórzy uważają, że poprzez dodanie głębi sztucznym sieciom i różne ich wzajemne połączenia, poznanie zostanie zrealizowane w tych sieciach. Inni (w tym niektórzy członkowie) są zwolennikami logiki rozmytej jako najlepszego dopasowania do poznania.
Samoświadomość nie jest tym samym, co czująca, choć powiązana. Jeśli widzenie komputerowe jest skierowane na komputer i rozpoznaje siebie, wówczas jest ono samoświadome na poziomie sensorycznym. Jeśli komputer lubi siebie lub staje się smutny, ponieważ nie ma robota, więc może chodzić na zakupy, oznacza to samoświadomość na poziomie emocjonalnym i poznawczym.
Chociaż nie ma dowodów na to, że można osiągnąć te rzeczy na wyższym poziomie, nie ma jeszcze teoretycznego powodu, by wątpić w ich potencjalny rozwój.
Tak , program AI może stać się wrażliwy. Ray Kurzweil podczas wykładu na Singularity University on The Accelerating Future stwierdził, że ciało ludzkie składa się zasadniczo z około 23 000 małych programów zwanych GENES . Jeśli się nad tym zastanowić, to tak naprawdę są to programy złożone z sekwencji danych. Nie są napisane w C ++ ani Javie, zamiast tego używają trójwymiarowej interakcji białek . Ewoluują z czasem, a ich ewolucja jest powodem, że gatunki są w stanie przetrwać, nawet jeśli ich otoczenie doświadcza tragicznych zmian.
Jesteśmy na krawędzi przełomu, w którym oprogramowanie będzie w stanie efektywnie to samo (ewoluować). Dziś odbywa się to na poziomie podstawowym. Sztuczna sieć neuronowa jest dobrym przykładem.
Przewiduje się, że do 2029 roku będziemy w stanie odtworzyć ludzki mózg. Wcześniej będziemy mogli pisać kody, które mogą stymulować ludzki mózg.
Programy AI można podzielić na trzy: