Czy program AI może mieć EQ (inteligencja emocjonalna lub iloraz emocjonalny)?
Innymi słowy, czy można zmierzyć EQ programu AI?
Jeśli EQ jest trudniejszy do zmierzenia niż IQ (przynajmniej ze standardową aplikacją zarówno dla ludzi, jak i programów AI), dlaczego tak jest?
emotional-intelligence
intelligence-testing
1010101 Styl życia
źródło
źródło
Odpowiedzi:
Odpowiedź na twoje pytanie brzmi: „Zasadniczo tak” - w najbardziej ogólnej formie testowanie EQ jest tylko specyficznym przypadkiem testu Turinga („Jak byś się czuł…”).
Aby zobaczyć, dlaczego przeprowadzenie znaczących testów EQ może być trudne, rozważ następujące dwa możliwe testy:
W skrajnym stopniu złożoności film „Blade Runner” słynie ze testu pozwalającego odróżnić człowieka od androida na podstawie odpowiedzi na pytania naładowane emocjonalnie.
Jeśli spróbujesz zadać te pytania (lub nawet znacznie prostsze) współczesnemu chatbotowi, prawdopodobnie szybko dojdziesz do wniosku, że nie rozmawiasz z kimś.
Problem z oceną EQ polega na tym, że im bardziej wyrafinowany emocjonalnie test, tym bardziej ogólny musi być system AI, aby przekształcić dane wejściowe w znaczącą reprezentację.
Na drugim biegunie od powyższego załóżmy, że test EQ został sformułowany w niezwykle ustrukturyzowany sposób, przy ustrukturyzowanym wkładzie dostarczonym przez człowieka. W takim przypadku sukces w „teście EQ” nie jest tak naprawdę ugruntowany w świecie rzeczywistym.
W eseju zatytułowanym „Niewytłumaczalny efekt Elizy i jej niebezpieczeństwa” Douglas Hofstadter podaje następujący przykład, w którym program ACME ma twierdzić (nie Hofstadter), że „rozumie” analogię.
Ta historia jest prezentowana ACME w następującej formie:
Załóżmy, że program został zapytany, czy zachowanie Jane Doe było moralne. Złożone złożone koncepcje emocjonalne, takie jak „zaniedbujące”, „samotne” i „niewinne”, są tutaj po prostu predykatami, niedostępnymi dla sztucznej inteligencji do głębszych badań introspektywnych. Można je równie łatwo zastąpić etykietami, takimi jak „bling-blang-blong15657”.
W pewnym sensie brak powodzenia testu EQ z dowolną głębią wskazuje na ogólny problem, przed którym stoi obecnie AI: niemożność zdefiniowania (lub w inny sposób nauczenia się) znaczących reprezentacji subtelnych złożoności ludzkiego świata, co jest znacznie więcej złożone niż rozpoznawanie filmów kotów.
źródło