Słynne Trzy prawa robotyki Izaaka Asimova powstały w kontekście opowiadań science fiction Asimova. W tych opowieściach trzy prawa służą jako środek bezpieczeństwa, aby uniknąć wybuchu spustoszenia w przedwczesnych lub zmanipulowanych sytuacjach.
Częściej niż nie, narracje Asimova znajdowały sposób na ich złamanie, prowadząc pisarza do wprowadzenia kilku zmian w samych prawach. Na przykład w niektórych swoich opowieściach zmodyfikował Pierwsze Prawo , dodał Czwarte (lub Zeroth) Prawo , a nawet całkowicie je usunął .
Łatwo jednak argumentować, że w kulturze popularnej, a nawet w samych badaniach nad sztuczną inteligencją, prawa robotyki są traktowane dość poważnie. Ignorując boczny problem różnych, subiektywnych i wzajemnie wykluczających się interpretacji praw, czy istnieją jakieś argumenty świadczące o tym, że same prawa są wewnętrznie wadliwe ze względu na ich konstrukcję, czy też są wystarczająco silne, aby można je było zastosować w rzeczywistości? Podobnie, czy w tym celu zaprojektowano lepszą, bardziej rygorystyczną heurystykę bezpieczeństwa?
źródło
Odpowiedzi:
Prawa Asimova nie są wystarczająco silne, aby można je było zastosować w praktyce. Siła nie jest nawet brana pod uwagę, biorąc pod uwagę, że ponieważ są one pisane po angielsku, najpierw trzeba by je interpretować subiektywnie, aby mieć jakiekolwiek znaczenie. Dobra dyskusja na ten temat znajduje się tutaj .
Aby zapisać fragment:
Łatwo można sobie wyobrazić, że Asimov był wystarczająco sprytny, aby to wiedzieć i bardziej interesował go pisanie historii niż projektowanie protokołów sterowania AI w świecie rzeczywistym.
W powieści Neuromancer zasugerowano, że sztuczna inteligencja może służyć jako wzajemna kontrola. Nadchodząca Osobliwość Raya Kurzweila , lub inaczej hiperinteligentne AGI, mogą w ogóle nie pozostawić wielu możliwości kontrolowania AI, pozostawiając jedynie regulację rówieśniczą jako jedyną możliwą możliwość.
Warto zauważyć, że Eliezer Yudkowsky i inni przeprowadzili eksperyment, w którym Yudkowsky grał rolę superinteligentnej sztucznej inteligencji z umiejętnością mówienia, ale bez żadnego innego połączenia poza zamkniętym pudełkiem. Pretendenci mieli za zadanie po prostu trzymać AI w pudełku za wszelką cenę. Yudkowsky uciekł za każdym razem.
źródło
Asimov uczynił te trzy prawa konkretnie, aby udowodnić, że żadne trzy prawa nie są wystarczające, bez względu na to, jak początkowo wydają się rozsądne. Znam faceta, który go znał, a on to potwierdził.
źródło
Rozważ pierwszą zasadę robotyki Asimova:
To prawo jest już problematyczne, biorąc pod uwagę samochody samojezdne.
O co tu chodzi, pytasz? Prawdopodobnie znasz klasyczny eksperyment myślowy z zakresu etyki, znany jako problem z wózkiem . Ogólna postać problemu jest następująca:
Samochody samojezdne będą musiały wprowadzić rzeczywiste wariacje dotyczące problemu wózka, co w zasadzie oznacza, że samochody samobieżne muszą być zaprogramowane do zabijania ludzi .
Oczywiście nie oznacza to, że WSZYSTKIE roboty będą musiały zostać zaprogramowane do zabijania, ale samochody samobieżne są dobrym przykładem robota, który to zrobi.
źródło