Artykuł „ Dzieci pokonujące robota inspirują nowy system manewru ucieczki” oparty jest na dwóch artykułach naukowych na temat eksperymentu w japońskim centrum handlowym, w wyniku którego dzieci bez nadzoru atakują roboty. Artykuł badawczy, który Cię interesuje, to Ucieczka przed wykorzystywaniem robotów społecznych przez dzieci .
W tym artykule badawczym naukowcy byli w stanie zaprogramować roboty, aby postępowały zgodnie z symulacją planowania, aby zmniejszyć prawdopodobieństwo wykorzystywania przez dzieci. Jeśli wykryje dzieci, robot jest zaprogramowany do wycofywania się w tłum dorosłych (którzy mogą w razie potrzeby zdyscyplinować dzieci). Stało się tak, ponieważ naukowcy zauważyli, że tylko dzieci pobiły roboty w danym centrum handlowym.
Dyskutują o wypróbowaniu innych opcji:
W tej pracy strategia robota polegająca na zapobieganiu nadużyciom polegała na „ucieczce”, tj. Przeniesieniu się do miejsca, w którym mniej prawdopodobne jest nadużycie. Można zapytać, dlaczego robot nie może przezwyciężyć tego nadużycia. W naszych wstępnych próbach wypróbowaliśmy kilka podejść, ale stwierdziliśmy, że robotowi bardzo trudno jest przekonać dzieci, aby go nie wykorzystywały. Na przykład zmieniliśmy sformułowania robota na wiele sposobów, używając silnych słów, wyrażeń emocjonalnych lub uprzejmych, ale żadne z nich nie odniosło sukcesu. Jedną częściowo udaną strategią był robot „fizycznie” pchający dzieci. Gdy jego droga zostanie zablokowana, po prostu spróbuje iść dalej i zachowywać się tak, jakby zderzył się z dziećmi i przedarł się przez nie (pod uważnym nadzorem ze strony operatora). Zauważyliśmy, że dzieci początkowo przyjmowały prośby robota i były im posłuszne; ale, bardzo szybko nauczyli się, że są silniejsi od robota, więc mogą wygrać, jeśli popchną, a także, że mogą go zatrzymać, naciskając przełącznik zderzaka (przymocowany do robota dla bezpieczeństwa). Po uświadomieniu sobie tego, po prostu kontynuowali obelżywe zachowanie. Oczywiście posiadanie silniejszego robota stanowiłoby problem dla bezpieczeństwa i akceptacji społecznej, więc radzenie sobie z takimi nadużyciami jest trudne.
Ale zapytajmy dalej:
Jeśli świadoma sztuczna inteligencja jest możliwa i ma szeroki zasięg, czy nie byłoby łatwo komuś, kto wie, co robi, aby torturować AI?
Dlaczego uważasz takie tortury za niewłaściwe ? W końcu można argumentować, że maszyna tak naprawdę nie „doświadczy” bólu, jeśli ją torturujesz… więc moralnie dobrze jest torturować maszynę. Może reagować tak, jakby odczuwał ból, ale wątpliwe jest, czy zdolność do symulacji stanu emocjonalnego, takiego jak „bycie w bólu”, jest równoważna z faktycznym byciem w tym stanie emocjonalnym. Zobacz pytanie Czy symulacja stanów emocjonalnych jest równoznaczna z faktycznym przeżywaniem emocji? więcej dyskusji na ten temat.
Możesz wysunąć taki argument, ale tak naprawdę nie zadziała on na poziomie emocjonalnym, ponieważ większość ludzi odczuwałaby empatię wobec maszyny. Może być trudno uzasadnić to logicznie (i może być oparte na ludzkich skłonnościach do angażowania się w antropomorfizm ), ale odczuwamy tę empatię. To właśnie ta empatia sprawiła, że zadałeś to pytanie, badacze wymyślili, jak uchronić robota przed pobiciem, umożliwił funkcjonariuszom policji aresztowanie pijanego Japończyka za pobicie robota SoftBank i uczynił wielu ludzi zdenerwowany z powodu zniszczenia hitchBOT . I to jestjak uniknąć nadużywania AI - ludzka empatia. Jeśli większość ludzi troszczy się o dobro maszyn, priorytetem będzie powstrzymanie tych niewielu ludzi, którzy są w stanie i chcą nadużywać maszyn.
EDYCJA: OP zredagował swoje pytanie, aby wyjaśnić, że mówi o oprogramowaniu , a nie o robotach. W przypadku robotów możesz polegać na antropomorfizmie, aby uzyskać pewien poziom współczucia, ale trudno jest sympatyzować z surowymi wierszami kodu.
Nie przestaniesz nadużywać algorytmów. Mówiąc szczerze, ponieważ algorytmy nie są takie jak my, nie będziemy okazywać takiej samej empatii, jaką mielibyśmy dla robotów. Nawet chatboty są trochę niepewne. Jeśli jednak uda ci się nakłonić ludzi do sympatyzowania z liniami kodu (być może przez wykonanie przekonującej symulacji emocji i rozumu), wówczas powyższa odpowiedź ma zastosowanie - ludzie antropomorfizują maszynę i wymyślą środki zaradcze. Nie jesteśmy jeszcze na tym poziomie, więc „powstrzymanie nadużywania AI” będzie miało niski priorytet.
Mimo to niektóre zaprogramowane awarie mogą zostać zaprogramowane w celu ograniczenia szkód związanych z nadużyciami, jak szczegółowo opisano w tym wątku na temat nadużyć przez chatbot - powodując, że bot reaguje nudnie, aby sprawca poczuł się znudzony i przeniósł się na następny cel, odpowiadając z powrotem na napastnika w „bitwie sprytu”, a nawet po prostu blokując napastnikom korzystanie z usługi.
Te awarie są zimnym komfortem dla tych, którzy chcą zapobiegać nadużyciom, a nie reagować na nie.
Ponadto ... osoba nadużywająca może z radością nauczyć się programować sztuczną inteligencję, aby następnie nadużywać treści swojego serca. Nic nie można zrobić, aby to powstrzymać, a wszelkie możliwe środki, aby powstrzymać wspomniane nadużycia (takie jak monitorowanie każdej istoty ludzkiej, aby upewnić się, że nie zaprogramują AI na nadużycia) prawdopodobnie spowodują więcej szkód, niż by to rozwiązało.
Sugeruję, abyś spojrzał na wszystkie sposoby, które próbowaliśmy powstrzymać ludzi przed wykorzystywaniem INNYCH LUDZI. Nie ma tu etycznej szarej strefy - wszyscy mają jasność, że to źle. A jednak ludzie są codziennie mordowani, gwałceni i atakowani przez miliony.
Kiedy rozwiążemy ten problem w odniesieniu do ofiar ludzkich, powstałe rozwiązanie najprawdopodobniej będzie dobrze działać również w przypadku sztucznej inteligencji.
źródło
AI i agresywnej perspektywy zewnętrznej nie można powielić program nie został wykształcony ani zaprojektowany podobnie jak nasza inteligencja naturalna Dane AI nie mogą być porównane z inteligencją humanistyczną zgodnie z procesorem emocjonalno-społecznym opracowanym przez dorastające doświadczenie, ponieważ nasz projekt nie jest opatentowany jak programowanie AI Życie powielone przez teorię inżynierii opartą na samym przykładzie nie wystarczy doświadczenie jest wiedzą stworzoną przez człowieka, ale działaniem z czasem nie działaniem zaprojektowanym na podstawie inżynierii emocjonalnej doktoratu. Jednak AI może korzystać z naszego dostarczania emocjonalnego skryptuję koncepcyjnie za pomocą oprogramowania, które oparte na przykładach ludzkich działań przewiduje nienaturalną reakcję w przypadku, gdy dyktujące dialogi ludzkiego odbiorcy reagują bez odpowiedzi, jakby rozumieli, że bot jest opatentowany sztucznie zaprojektowany w oparciu o nasze dostarczanie emocjonalne, które jest skryptowane do rozmowy dojdziemy do diagnozy poprzez przyczynę i skutek. To nie jest rozsądne doświadczenie, potrzebujemy, aby AI stało się doświadczonym emocjonalnie botem, jeśli sztuczność emocji dla bota odróżni naszą ważność. Zamiast tego zobaczymy, jakie wyniki uzyskamy dla podstawowych cech oprogramowania, które powodują, że bot reaguje na sztucznie doświadczoną inteligencję zaprojektowaną koncepcyjnie z mechaniką oprogramowania emocjonalnego, że nie mamy pojęcia, jakie wyniki otrzymamy sztucznie.
źródło