Oczywiście samochody samobieżne nie są idealne, więc wyobraź sobie, że samochód Google (na przykład) znalazł się w trudnej sytuacji.
Oto kilka przykładów niefortunnych sytuacji spowodowanych przez zestaw zdarzeń:
- Samochód zmierza w kierunku 10-osobowego tłumu przechodzącego przez ulicę, więc nie może zatrzymać się na czas, ale może uniknąć zabicia 10 osób przez uderzenie w ścianę (zabicie pasażerów),
- Unikając zabicia kierowcy motocykla, biorąc pod uwagę, że prawdopodobieństwo przeżycia jest większe dla pasażera samochodu,
- Zabijanie zwierząt na ulicy na rzecz człowieka,
- Zmieniając pasy, by zderzyć się z innym samochodem, aby uniknąć zabicia psa,
A oto kilka dylematów:
- Czy algorytm rozpoznaje różnicę między człowiekiem a zwierzęciem?
- Czy wielkość istoty ludzkiej lub zwierzęcej ma znaczenie?
- Czy liczy się liczba pasażerów w porównaniu do osób z przodu?
- Czy „wie”, kiedy niemowlęta / dzieci są na pokładzie?
- Czy bierze pod uwagę wiek (np. Zabicie najpierw starszych)?
W jaki sposób algorytm decydowałby, co powinien zrobić z perspektywy technicznej? Czy jest świadomy tego, co powyżej (licząc prawdopodobieństwo zabicia), czy nie (zabijanie ludzi, aby uniknąć własnego zniszczenia)?
Powiązane artykuły:
Odpowiedzi:
Nie powinno. Samochody samojezdne nie są czynnikami moralnymi. Samochody zawodzą w przewidywalny sposób. Konie zawodzą w przewidywalny sposób.
W takim przypadku samochód powinien zatrzasnąć hamulce. Jeśli 10 osób umrze, to po prostu niefortunne. Po prostu nie możemy ufać wszystkim naszym przekonaniom na temat tego, co dzieje się poza samochodem. Co jeśli te 10 osób to naprawdę roboty stworzone, by wyglądały jak ludzie? Co jeśli próbują cię zabić?
Ponownie, zakodowanie tego rodzaju uczuć w pojeździe otwiera kierowcę pojazdu na wszelkiego rodzaju ataki, w tym „fałszywych” motocyklistów. Ludzie są ledwo przygotowani do samodzielnego podejmowania tych decyzji, jeśli w ogóle. W razie wątpliwości wystarczy nacisnąć hamulce.
Ponownie, po prostu naciśnij hamulce. Co jeśli to było dziecko? Co jeśli to była bomba?
Nie. Pies był w niewłaściwym miejscu o niewłaściwej porze. Drugi samochód nie był. Wystarczy nacisnąć hamulce, tak bezpiecznie, jak to możliwe.
Czy człowiek Nie zawsze. Co jeśli człowiek ma broń? Co jeśli zwierzę ma duże zęby? Czy nie ma kontekstu?
Ludzie nie mogą się zgodzić na te rzeczy. Jeśli zapytasz gliniarza, co robić w którejkolwiek z tych sytuacji, odpowiedź nie będzie brzmiała: „Powinieneś skręcić w lewo, zważyć wszystkie odpowiednie strony w głowie, ocenić odpowiedni wiek między wszystkimi stronami, a następnie skręcić lekko w prawo, i uratowałbyś 8% więcej istnień ludzkich. ” Nie, policjant powie tylko: „Powinieneś był zatrzymać pojazd, tak szybko i bezpiecznie, jak to możliwe”. Dlaczego? Ponieważ gliniarze wiedzą, że ludzie zwykle nie są przygotowani do radzenia sobie z szybkimi scenariuszami awarii.
Naszym celem „samodzielnego prowadzenia samochodu” nie powinno być „moralne działanie na równi z człowiekiem”. Powinien to być środek o reaktywnej złożoności karalucha, który zawodzi przewidywalnie.
źródło
Odpowiedź na wiele z tych pytań zależy od sposobu zaprogramowania urządzenia. Komputer zdolny do poruszania się i rozpoznawania drogi może prawdopodobnie wizualnie odróżnić człowieka od zwierzęcia, niezależnie od tego, czy jest to oparte na zarysie, obrazie czy rozmiarze. Przy wystarczająco ostrym rozpoznawaniu obrazu może być w stanie policzyć liczbę i rodzaj osób w innym pojeździe. Mógłby nawet wykorzystać istniejące dane dotyczące prawdopodobieństwa odniesienia obrażeń przez ludzi w różnych rodzajach pojazdów.
Ostatecznie ludzie nie zgadzają się co do etycznych wyborów. Być może mogą istnieć „ustawienia etyczne” dla użytkownika / właściciela, takie jak „rozważ tylko liczbę żyć” w porównaniu z „młodsze życie jest bardziej wartościowe”. Osobiście uważam, że nie jest strasznie kontrowersyjne, aby maszyna sama się uszkodziła, zanim skrzywdzi człowieka, ale ludzie nie zgadzają się co do tego, jak ważne jest życie zwierząt. Jeśli wyraźne ustawienia „zabij to pierwszego” powodują, że ludzie są niespokojni, odpowiedzi można ustalić na podstawie kwestionariusza przekazanego użytkownikowi.
źródło
Osobiście uważam, że może to być problem nadmiernego obciążenia. Problemy z wózkiem występują tylko wtedy, gdy sytuacja jest zoptymalizowana, aby zapobiec „trzecim opcjom”.
Samochód ma hamulce, prawda? „Ale co, jeśli hamulce nie działają?” Cóż, wtedy samochód nie może w ogóle prowadzić. Nawet przy zwykłym ruchu drogowym ludzie dowiadują się, że prędkość powinna być ograniczona, abyś mógł zatrzymać się w obszarze, który widzisz. Takie rozwiązania zmniejszą możliwość wystąpienia problemu z wózkiem.
Co do zwierząt ... jeśli nie będzie wyraźnego wysiłku, aby poradzić sobie z ludźmi na drodze, myślę, że zwierzęta będą traktowane tak samo. Brzmi to niewiarygodnie - zabójstwo zdarza się często, a zabójstwo człowieka jest niepożądane, ale zwierzęta są znacznie mniejsze i trudniejsze do zauważenia niż ludzie, więc myślę, że wykrywanie ludzi będzie łatwiejsze, zapobiegając wielu wypadkom.
W innych przypadkach (błędy, usterki podczas jazdy, wiele awarii na sobie) mogą wystąpić wypadki, zostaną one przeanalizowane, a pojazdy zostaną zaktualizowane, aby uniknąć powodowania podobnych sytuacji.
źródło
Jest to dobrze znany problem z wózkiem . Jak powiedział Ben N , ludzie nie zgadzają się co do właściwego sposobu postępowania w przypadku problemów z wózkiem, ale należy zauważyć, że w przypadku samochodów z własnym napędem niezawodność jest tak wysoka, że scenariusze te są naprawdę mało prawdopodobne. Tak więc nie będzie wiele wysiłku w opisywanych przez ciebie problemach, przynajmniej w krótkim okresie.
źródło
W prawdziwym świecie decyzje będą podejmowane na podstawie prawa i, jak zauważono w Law.SE , prawo ogólnie faworyzuje brak działania nad działaniem.
źródło
W przypadku samochodu bez kierowcy, zaprojektowanego przez jeden podmiot, najlepszym sposobem na podjęcie decyzji o tym, kogo zabić, jest oszacowanie i zminimalizowanie prawdopodobnej odpowiedzialności.
Nie musi bezwzględnie poprawnie identyfikować wszystkich potencjalnych ofiar w okolicy, aby mieć obronę przed swoją decyzją, tylko po to, aby zidentyfikować je, podobnie jak człowieka.
Nie musi nawet znać wieku i kondycji fizycznej wszystkich osób w samochodzie, ponieważ może poprosić o te informacje, a jeśli odmówi, ma taką obronę, że pasażerowie postanowili ich nie udostępnić, i dlatego wziął odpowiedzialność za ich pozbawienie umiejętność podjęcia lepszej decyzji.
Musi mieć tylko realny model minimalizacji narażenia podmiotu na procesy sądowe, który z czasem można ulepszyć, aby stał się bardziej opłacalny.
źródło
Ten cytat pochodzi z artykułu zatytułowanego Samojezdne Mercedesy-Benz nadające priorytet bezpieczeństwu pasażerów nad pieszymi, opublikowanego 7 PAŹDZIERNIKA 2016 MICHAŁ TAYLOR , pobranego 08 listopada 2016.
Oto fragment, który przedstawia technologiczne, praktyczne rozwiązanie problemu.
Artykuł zawiera także następujący fascynujący akapit.
źródło
Szczerze mówiąc, myślę, że ten problem (problem z wózkiem) jest z natury nadmiernie skomplikowany, ponieważ rozwiązanie rzeczywistego świata może być dość proste. Podobnie jak ludzki kierowca, kierowca AI będzie zaprogramowany tak, aby działał przez cały czas w sposób ogólnie etyczny, zawsze wybierając sposób działania, który nie zaszkodzi ani nie zaszkodzi najmniej.
Jeśli kierowca AI napotka niebezpieczeństwo, takie jak bezpośrednie uszkodzenie mienia, oczywiście AI zahamuje mocno i skieruje samochód z dala od łamliwych przedmiotów, aby uniknąć lub zminimalizować uderzenie. Jeśli niebezpieczeństwo uderzy w pieszego, samochód lub budynek, zdecyduje się na zderzenie z najmniej cennym lub drogim przedmiotem, jaki może uczynić, aby wyrządzić jak najmniej szkody - przypisując człowiekowi wyższą wartość niż budynek lub pies.
Wreszcie, jeśli kierowcą sztucznej inteligencji twojego samochodu jest przejechanie dziecka lub uderzenie w ścianę ... kieruje on samochód wraz z tobą w ścianę. Tak postąpiłby każdy dobry człowiek. Dlaczego dobra sztuczna inteligencja miałaby działać inaczej?
źródło
Nie powinni. Ludzie powinni.
Ludzie nie mogą przekazać odpowiedzialności za decyzje etyczne komputerom. Naszym zadaniem jako informatyków / ekspertów AI jest programowanie decyzji podejmowanych przez komputery. Czy z tego nadal będą istnieć ludzkie ofiary? Oczywiście, że będą - ludzie nie są doskonali, podobnie jak programy.
Jest doskonały pogłębionej debaty na ten temat tutaj . Szczególnie podoba mi się argument Yanna LeCuna dotyczący równoległego dylematu etycznego testowania potencjalnie śmiertelnych leków u pacjentów. Podobnie jak samochody samojezdne, oba mogą być śmiertelne, a jednocześnie mają dobre intencje ratowania większej liczby osób na dłuższą metę.
źródło
W jaki sposób samochody samojezdne mogą podejmować etyczne decyzje dotyczące tego, kogo zabić?
Zarządzając odpowiedzialnością prawną i bezpieczeństwem konsumentów.
Samochód, który zapewnia bezpieczeństwo konsumentowi, będzie samochodem kupionym przez wspomnianych konsumentów. Firmy nie chcą ponosić odpowiedzialności za zabicie swoich klientów ani nie chcą sprzedawać produktu, który wpędza użytkownika w kłopoty prawne. Odpowiedzialność prawna i bezpieczeństwo konsumentów są tym samym zagadnieniem, gdy patrzy się na nie z perspektywy „kosztów dla konsumenta”.
Jeśli zwierzę / człowiek nie może być legalnie uniknięte (a samochód ma rację - jeśli nie jest, to coś innego jest nie tak z podejmowaniem decyzji przez AI), prawdopodobnie nie. Jeśli samochód będzie w stanie bezpiecznie ominąć przeszkodę, sztuczna inteligencja może być rozsądnie podjęta, aby podjąć tę decyzję, tj. skręć na inny pas na otwartej autostradzie. Uwaga: nacisk kładziony jest na odpowiedzialność i bezpieczeństwo kierowcy.
Tylko czynnik ryzyka uderzenia w przeszkodę. Uderzenie w hipopotama może być mniej pożądane niż trafienie do rowu. Uderzenie w psa jest prawdopodobnie bardziej pożądane niż zniszczenie samochodu klienta.
Ludzie liczą się jako pasażerowie, aby sprawdzić, czy można skorzystać z pasa do parkowania samochodów. Liczy ludzi z przodu jako czynnik ryzyka w przypadku kolizji.
Nie.
Nie. To po prostu niewłaściwa abstrakcja do podjęcia decyzji. Jak można to przypisać do wyboru właściwego sposobu działania w celu zmniejszenia czynnika ryzyka? Jeśli opcja 1 zostanie trafiona w młodego faceta z 20% szansą na znaczną szkodę użytkownika i brak odpowiedzialności prawnej, a opcja 2 trafi w starszego mężczyznę z 21% szansą na znaczną szkodę użytkownika i bez odpowiedzialności prawnej, to o czym filozof może przekonać nawet tylko 1 osobę sprawiedliwe i sprawiedliwe wagi do podjęcia decyzji?
Na szczęście najlepszą decyzją jest przełamywanie przerw w celu zmniejszenia prędkości (szczególnie, gdy uważasz, że często warto działać przewidywalnie, aby piesi i kierowcy mogli odpowiednio zareagować). W międzyczasie można dokonać lepszej poprawy wartości, jeśli chodzi o przewidywanie, kiedy kierowcy podejmą złe decyzje, a kiedy inne działania (takie jak uderzenie w drugą stronę) będą bardziej korzystne niż wjechanie na przerwę. W tym momencie nie warto nawet gromadzić informacji, aby podejmować etyczne decyzje proponowane przez filozofów. Tak więc kwestia ta jest przesadzona przez rewelacyjnych dziennikarzy i filozofów.
źródło
Myślę, że w większości przypadków samochód domyślnie zmniejszałby prędkość jako główną opcję, a nie kierował się w stronę określonego wyboru lub od niego. Jak wspomnieli inni, posiadanie ustawień związanych z etyką to po prostu zły pomysł. Co się stanie, jeśli dwa samochody, które są zaprogramowane z przeciwnymi ustawieniami etycznymi i mają się zderzyć? Samochody mogłyby potencjalnie mieć system zastępujący ustawienia użytkownika i wybierający najbardziej korzystne dla obu stron rozwiązanie. To rzeczywiście ciekawa koncepcja, którą zdecydowanie należy omówić i ustandaryzować przed szerokim wdrożeniem. Oddanie etycznych decyzji w ręce maszyny sprawia, że wynikająca z niej odpowiedzialność jest czasem trudna do wyobrażenia.
źródło
Myślę, że nie byłoby sposobu na edycję takich ustawień etycznych w samochodzie. Ale hej, jeśli telefony komórkowe można zrootować, dlaczego nie samochody? Wyobrażam sobie, że w przyszłości będą dostępne kompilacje Linuksa dla określonych modeli, które pozwolą Ci robić, co chcesz.
Jeśli chodzi o to, kto podejmie takie decyzje, będzie to przypominać dzisiejsze problemy związane z prywatnością. Koc będzie prowadzony przez holownik wojny przez dostawców systemów operacyjnych (którzy spróbują ustawić minimalną liczbę rannych, każda z własnymi metodami), firm ubezpieczeniowych (które będą próbowały zmusić cię do zapłaty więcej dla systemów operacyjnych, które będą statystycznie pokazane, aby łatwiej uszkodzić samochód), oraz producentów samochodów (którzy będą chcieli, abyś jak najszybciej zniszczył samochód, abyś kupił nowy; lub sprawi, że samochody będą śmieszne) kwota usługi $$$).
Potem wyjdzie jakiś informator i ujawni fragment kodu, który decyduje się zabić małe dzieci nad dorosłymi - ponieważ będzie im trudniej odróżnić je od zwierząt i zaryzykuje uratowanie tego, kogo z pewnością rozpozna jako ludzi. Producent systemu operacyjnego otrzyma opinię publiczną i zostanie osiągnięty nowy konsensus. Informatorzy ujawnią się także od firm ubezpieczeniowych i producentów samochodów.
Ludzkość weźmie gorącą patelnię i spali się, a następnie nauczy się zakładać rękawiczki. Moja rada upewni mnie tylko, że nie będziesz tą ręką - trzymaj się od nich z daleka przez kilka lat, aż popełnią wszystkie wczesne błędy.
źródło
Jedynym rozsądnym wyborem jest zastosowanie przewidywalnego zachowania. Więc w scenariuszu przed samochodem: Najpierw samochód uderza w hamulce, jednocześnie trąbi klakson i jedzie dalej. Ludzie mają wtedy szansę zeskoczyć z drogi, prowadząc do śmierci zero osób. Również przy pełnym hamowaniu (przejście z 50 km na godzinę do zera to mniej niż 3 długości samochodu), sytuacja uderzenia jest prawie nie do wyobrażenia. Nawet jeśli nie można osiągnąć kropki, poważne uszkodzenie pieszych jest mało prawdopodobne.
Drugi scenariusz jest po prostu szalony. Więc odległość musi być mniejsza niż 3 długości samochodu, co najmniej 1 długość samochodu jest potrzebna do sterowania, wtedy wypadek samochodowy jest niekontrolowaną sytuacją, może prowadzić do obracania się i zabijania wszystkich 11 osób.
Oprócz powiedzenia, że nie wierzę, że w rzeczywistości istnieje przykład, w którym istnieje dylemat; rozwiązanie w tych mało prawdopodobnych przypadkach, jeśli jest zgodne z oczekiwaniami strony przeciwnej, aby umożliwić drugiej stronie również złagodzenie sytuacji.
źródło