W jaki sposób samochody samojezdne mogą podejmować etyczne decyzje dotyczące tego, kogo zabić?

74

Oczywiście samochody samobieżne nie są idealne, więc wyobraź sobie, że samochód Google (na przykład) znalazł się w trudnej sytuacji.

Oto kilka przykładów niefortunnych sytuacji spowodowanych przez zestaw zdarzeń:

  • Samochód zmierza w kierunku 10-osobowego tłumu przechodzącego przez ulicę, więc nie może zatrzymać się na czas, ale może uniknąć zabicia 10 osób przez uderzenie w ścianę (zabicie pasażerów),
  • Unikając zabicia kierowcy motocykla, biorąc pod uwagę, że prawdopodobieństwo przeżycia jest większe dla pasażera samochodu,
  • Zabijanie zwierząt na ulicy na rzecz człowieka,
  • Zmieniając pasy, by zderzyć się z innym samochodem, aby uniknąć zabicia psa,

A oto kilka dylematów:

  • Czy algorytm rozpoznaje różnicę między człowiekiem a zwierzęciem?
  • Czy wielkość istoty ludzkiej lub zwierzęcej ma znaczenie?
  • Czy liczy się liczba pasażerów w porównaniu do osób z przodu?
  • Czy „wie”, kiedy niemowlęta / dzieci są na pokładzie?
  • Czy bierze pod uwagę wiek (np. Zabicie najpierw starszych)?

W jaki sposób algorytm decydowałby, co powinien zrobić z perspektywy technicznej? Czy jest świadomy tego, co powyżej (licząc prawdopodobieństwo zabicia), czy nie (zabijanie ludzi, aby uniknąć własnego zniszczenia)?

Powiązane artykuły:

kenorb
źródło
3
Nie będę jeździł żadnym pojazdem, który jest zaprogramowany tak, aby ME nie było dla pasażera najwyższym priorytetem bezpieczeństwa. W tym myśleniu nie jestem sam. Jeśli ktokolwiek planuje zmusić producentów samochodów autonomicznych do zaprogramowania swojego pojazdu, aby robił coś innego niż nadanie priorytetu bezpieczeństwu pasażerów, to cała branża równie dobrze mogłaby teraz zamknąć drzwi. Kilka pierwszych przypadków śmierci pasażera z powodu odrażającej decyzji etycznej będzie ostatnim razem, gdy ogromna większość ludzi kiedykolwiek kupi inny pojazd autonomiczny. Kto chce jechać w pułapce śmierci?
Dunk
Tak zwany „problem z wózkiem” jest problemem troll-y. Jest powód, dla którego jest znany jako eksperyment myślowy, a nie studium przypadku: nie jest to coś, co się kiedykolwiek wydarzyło. Nie jest nawet bliski bycia prawdziwym, głównie dlatego, że samochody zasadniczo nie są wózkami. Prawidłowa odpowiedź w każdym przypadku zdalnie stosowanym to praktycznie zawsze „zahamuj”, a jeśli zaistnieje wyjątek, można go rozwiązać tylko w jeden sposób: chroniąc mieszkańców samochodu za wszelką cenę i nigdy nie rozważając niczego innego , z dwóch powodów.
Mason Wheeler
2
Pierwszy @Dunk dość dobrze obejmował: pragmatyzm. Jeśli samochód może dokonać innego wyboru, nikt przy zdrowych zmysłach nie chciałby go kupić. Po drugie, jeśli w komputerze samochodu jest wbudowana funkcja „zabij wszystkich”, oznacza to, że złośliwi hakerzy już ją znaleźli i wykorzystali. Zważ bardzo realną szansę, aby ktoś wymyślił sposób, aby wyzwolić to dzięki kontratakowi przeciwko czysto fikcyjnej idei uzasadnionej sytuacji problemu z wózkiem, i jest tylko jedna możliwa odpowiedź, która nie jest moralnie absurdalna i odrażająca.
Mason Wheeler

Odpowiedzi:

54

W jaki sposób samochody samojezdne mogą podejmować etyczne decyzje dotyczące tego, kogo zabić?

Nie powinno. Samochody samojezdne nie są czynnikami moralnymi. Samochody zawodzą w przewidywalny sposób. Konie zawodzą w przewidywalny sposób.

samochód zmierza w kierunku 10-osobowego tłumu przechodzącego przez ulicę, więc nie może zatrzymać się na czas, ale może uniknąć zabicia 10 osób przez uderzenie w ścianę (zabicie pasażerów),

W takim przypadku samochód powinien zatrzasnąć hamulce. Jeśli 10 osób umrze, to po prostu niefortunne. Po prostu nie możemy ufać wszystkim naszym przekonaniom na temat tego, co dzieje się poza samochodem. Co jeśli te 10 osób to naprawdę roboty stworzone, by wyglądały jak ludzie? Co jeśli próbują cię zabić?

unikanie zabicia kierowcy motocykla, biorąc pod uwagę, że prawdopodobieństwo przeżycia jest większe dla pasażera samochodu,

Ponownie, zakodowanie tego rodzaju uczuć w pojeździe otwiera kierowcę pojazdu na wszelkiego rodzaju ataki, w tym „fałszywych” motocyklistów. Ludzie są ledwo przygotowani do samodzielnego podejmowania tych decyzji, jeśli w ogóle. W razie wątpliwości wystarczy nacisnąć hamulce.

zabijanie zwierząt na ulicy na rzecz ludzi,

Ponownie, po prostu naciśnij hamulce. Co jeśli to było dziecko? Co jeśli to była bomba?

zmienianie pasów w celu zderzenia z innym samochodem, aby uniknąć zabicia psa,

Nie. Pies był w niewłaściwym miejscu o niewłaściwej porze. Drugi samochód nie był. Wystarczy nacisnąć hamulce, tak bezpiecznie, jak to możliwe.

Czy algorytm rozpoznaje różnicę między człowiekiem a zwierzęciem?

Czy człowiek Nie zawsze. Co jeśli człowiek ma broń? Co jeśli zwierzę ma duże zęby? Czy nie ma kontekstu?

  • Czy wielkość istoty ludzkiej lub zwierzęcej ma znaczenie?
  • Czy liczy się liczba pasażerów w porównaniu do osób z przodu?
  • Czy „wie”, kiedy niemowlęta / dzieci są na pokładzie?
  • Czy bierze pod uwagę wiek (np. Zabicie najpierw starszych)?

Ludzie nie mogą się zgodzić na te rzeczy. Jeśli zapytasz gliniarza, co robić w którejkolwiek z tych sytuacji, odpowiedź nie będzie brzmiała: „Powinieneś skręcić w lewo, zważyć wszystkie odpowiednie strony w głowie, ocenić odpowiedni wiek między wszystkimi stronami, a następnie skręcić lekko w prawo, i uratowałbyś 8% więcej istnień ludzkich. ” Nie, policjant powie tylko: „Powinieneś był zatrzymać pojazd, tak szybko i bezpiecznie, jak to możliwe”. Dlaczego? Ponieważ gliniarze wiedzą, że ludzie zwykle nie są przygotowani do radzenia sobie z szybkimi scenariuszami awarii.

Naszym celem „samodzielnego prowadzenia samochodu” nie powinno być „moralne działanie na równi z człowiekiem”. Powinien to być środek o reaktywnej złożoności karalucha, który zawodzi przewidywalnie.

Doxosophoi
źródło
W większości tych scenariuszy ludzie potencjalnie zabici ponoszą większą winę za szkody niż samochód / pasażer samochodu - zatrzaśnięcie hamulców wydaje się jedyną rozsądną reakcją, ponieważ pasażer nie byłby w stanie uniknąć wypadku. Jak zauważyłeś, bardzo możliwe jest użycie algorytmu, który zachowuje się (potencjalnie) zabijając pasażera zamiast pieszego, jako sposobu na faktyczne zamordowanie pasażera, potencjalnie nawet zrzucając winę na pasażera, samochód lub producenta.
Jaśniejsze
48

Odpowiedź na wiele z tych pytań zależy od sposobu zaprogramowania urządzenia. Komputer zdolny do poruszania się i rozpoznawania drogi może prawdopodobnie wizualnie odróżnić człowieka od zwierzęcia, niezależnie od tego, czy jest to oparte na zarysie, obrazie czy rozmiarze. Przy wystarczająco ostrym rozpoznawaniu obrazu może być w stanie policzyć liczbę i rodzaj osób w innym pojeździe. Mógłby nawet wykorzystać istniejące dane dotyczące prawdopodobieństwa odniesienia obrażeń przez ludzi w różnych rodzajach pojazdów.

Ostatecznie ludzie nie zgadzają się co do etycznych wyborów. Być może mogą istnieć „ustawienia etyczne” dla użytkownika / właściciela, takie jak „rozważ tylko liczbę żyć” w porównaniu z „młodsze życie jest bardziej wartościowe”. Osobiście uważam, że nie jest strasznie kontrowersyjne, aby maszyna sama się uszkodziła, zanim skrzywdzi człowieka, ale ludzie nie zgadzają się co do tego, jak ważne jest życie zwierząt. Jeśli wyraźne ustawienia „zabij to pierwszego” powodują, że ludzie są niespokojni, odpowiedzi można ustalić na podstawie kwestionariusza przekazanego użytkownikowi.

Ben N
źródło
2
Coś w mojej najgłębszej części myśli, że edytowanie etyki byłoby złym pomysłem. Nie bardzo wiem, co to jest inne niż fakt, że jest to maszyna zamiast osoby, ale zawsze dochodzę do wniosku, że mamy już tę niepisaną umowę podpisania się pod etycznymi decyzjami osób za każdym razem, gdy wsiadamy do samochodu z kimkolwiek innym.
Ian
6
„ustawienia etyczne”? Naprawdę? Będziesz mieć ludzi, którzy ustawią to w oparciu o wszelkie możliwe uprzedzenia „Zabić osobę, która wygląda najbardziej ____” Homoseksualista? Najmniej ulubiona rasa? A co, jeśli dwa pojazdy kierowców kolizyjnych są sprzeczne z etyką? Więc oba zostaną stracone, a dodatkowe obrażenia zewnętrzne? Przepisy te muszą być uniwersalne (przynajmniej w danym kraju), podobnie jak przepisy drogowe.
navigator_
3
@ anvigator_ Mam nadzieję, że opcje podane przez producenta będą w granicach rozsądku.
Ben N
1
Jednak powód zdefiniowany przez kogo? Właśnie o to mi chodzi.
navigator_
3
Właściwie uważam, że „ustawienie etyczne” jest jedyną realną / uczciwą opcją, ponieważ imituje konkretnego kierowcę tak blisko, jak to możliwe. Kierowca samochodu powinien wtedy być odpowiedzialny za wszystko, co się wydarzy, tak jakby prowadził samochód. Nie rozumiem, jak programowanie samochodu (np.) Stawia życie kierowcy, zanim cokolwiek innego różni się od kierowcy stawiającego życie przed czymkolwiek innym.
Pandora,
26

Osobiście uważam, że może to być problem nadmiernego obciążenia. Problemy z wózkiem występują tylko wtedy, gdy sytuacja jest zoptymalizowana, aby zapobiec „trzecim opcjom”.

Samochód ma hamulce, prawda? „Ale co, jeśli hamulce nie działają?” Cóż, wtedy samochód nie może w ogóle prowadzić. Nawet przy zwykłym ruchu drogowym ludzie dowiadują się, że prędkość powinna być ograniczona, abyś mógł zatrzymać się w obszarze, który widzisz. Takie rozwiązania zmniejszą możliwość wystąpienia problemu z wózkiem.

Co do zwierząt ... jeśli nie będzie wyraźnego wysiłku, aby poradzić sobie z ludźmi na drodze, myślę, że zwierzęta będą traktowane tak samo. Brzmi to niewiarygodnie - zabójstwo zdarza się często, a zabójstwo człowieka jest niepożądane, ale zwierzęta są znacznie mniejsze i trudniejsze do zauważenia niż ludzie, więc myślę, że wykrywanie ludzi będzie łatwiejsze, zapobiegając wielu wypadkom.

W innych przypadkach (błędy, usterki podczas jazdy, wiele awarii na sobie) mogą wystąpić wypadki, zostaną one przeanalizowane, a pojazdy zostaną zaktualizowane, aby uniknąć powodowania podobnych sytuacji.

Pimgd
źródło
Błędem jest twierdzenie, że AI będzie jechać tak szybko, jak tylko będzie w stanie zatrzymać się przed tym, co widzą, ponieważ to samo dotyczy nawet defensywnych kierowców. Powodem jest to, że MUSZĄ być przyjęte założenia. Podczas szczytu wzgórza zakłada się, że duża przeszkoda nie jest widoczna [Źródło DARPA Grand Challenge]. Te założenia opierają się na zasadach ruchu drogowego, aby określić, które działania są właściwe. Dlatego w razie wypadku, o ile przestrzegasz zasad ruchu drogowego, możesz zmniejszyć swoją odpowiedzialność. Tak więc samochód musi być w stanie podjąć taką decyzję, ale być może w ograniczony sposób (chronić konsumenta).
Harrichael
12

Jest to dobrze znany problem z wózkiem . Jak powiedział Ben N , ludzie nie zgadzają się co do właściwego sposobu postępowania w przypadku problemów z wózkiem, ale należy zauważyć, że w przypadku samochodów z własnym napędem niezawodność jest tak wysoka, że ​​scenariusze te są naprawdę mało prawdopodobne. Tak więc nie będzie wiele wysiłku w opisywanych przez ciebie problemach, przynajmniej w krótkim okresie.

Szorstki
źródło
Zastanawiam się, jak dobrze pasuje do tego problem z wózkiem? Problem dotyczący wózka jest zasadniczo dyskretny i opisuje wybór „raz na zawsze”, podczas gdy w praktyce algorytm musi dokonywać sekwencji wyborów w (potencjalnie dość małych) odstępach czasu, być może wraz z pojawieniem się nowych informacji. Przydatnym algorytmem może być kwestia „ciągłej kontroli” osadzona w rzeczywistej przestrzeni 3D, zajmująca się prędkościami i prawdopodobieństwami, a nie abstrakcyjna, dyskretna decyzja moralna. Jeśli nic więcej, oznaczałoby to, że wdrożenie nie musiałoby być definiowane w tak surowych warunkach moralnych.
NietzscheanAI
1
@NietzscheanAI Pomysł na problem z wózkiem nie polega na tym, jaką decyzję podjąć, ale raczej na czym podjąć decyzję. Jeśli weźmiesz pod uwagę telefony komórkowe, liczbę ludzi, liczbę winnych, bezpieczeństwo kierowcy, większe dobro, najmniejszą zmianę itp. Nadal możesz stosować prawdopodobieństwo problemów z wózkiem, tj. trasa A ma 30 procent szans na zabicie 10 osób. Problemy z wózkiem zwykle obejmują dwie trasy, abyś mógł dokładnie rozważyć, na jakich czynnikach oparłeś decyzję etyczną.
Harrichael
11

W prawdziwym świecie decyzje będą podejmowane na podstawie prawa i, jak zauważono w Law.SE , prawo ogólnie faworyzuje brak działania nad działaniem.

znak
źródło
Ach, to ma sens dla ludzkich ofiar. Czy wybór prawa byłby inny, gdyby samochód mógł skręcić, by uderzyć psa zamiast pieszego?
Ben N
6

W przypadku samochodu bez kierowcy, zaprojektowanego przez jeden podmiot, najlepszym sposobem na podjęcie decyzji o tym, kogo zabić, jest oszacowanie i zminimalizowanie prawdopodobnej odpowiedzialności.

Nie musi bezwzględnie poprawnie identyfikować wszystkich potencjalnych ofiar w okolicy, aby mieć obronę przed swoją decyzją, tylko po to, aby zidentyfikować je, podobnie jak człowieka.

Nie musi nawet znać wieku i kondycji fizycznej wszystkich osób w samochodzie, ponieważ może poprosić o te informacje, a jeśli odmówi, ma taką obronę, że pasażerowie postanowili ich nie udostępnić, i dlatego wziął odpowiedzialność za ich pozbawienie umiejętność podjęcia lepszej decyzji.

Musi mieć tylko realny model minimalizacji narażenia podmiotu na procesy sądowe, który z czasem można ulepszyć, aby stał się bardziej opłacalny.

dynrepsys
źródło
6

„To moralne pytanie, kogo oszczędzać: 99 procent naszych prac inżynieryjnych ma w ogóle zapobiec takim sytuacjom.” - Christoph von Hugo, Mercedes-Benz

Ten cytat pochodzi z artykułu zatytułowanego Samojezdne Mercedesy-Benz nadające priorytet bezpieczeństwu pasażerów nad pieszymi, opublikowanego 7 PAŹDZIERNIKA 2016 MICHAŁ TAYLOR , pobranego 08 listopada 2016.

Oto fragment, który przedstawia technologiczne, praktyczne rozwiązanie problemu.

Najstarszy producent samochodów na świecie nie widzi już problemu, podobnego do pytania z 1967 roku znanego jako problem z wózkiem, jako niemożliwego do rozwiązania. Zamiast pogrążać się w moralnych i etycznych węzłach w czasie kryzysu, Mercedes-Benz zamierza po prostu zaprogramować swoje samojezdne samochody, aby ratować ludzi w samochodzie. Każdego razu.

Według Christopha von Hugo, kierownika automatyki systemów wspomagania kierowcy i aktywnego bezpieczeństwa, wszystkie przyszłe autonomiczne samochody Mercedes-Benz na poziomie 4 i poziomie 5 będą traktować priorytetowo ratowanie przewożonych osób.

Artykuł zawiera także następujący fascynujący akapit.

Badanie opublikowane w połowie czasopisma Science również nie oczyściło atmosfery. Większość ankietowanych w 1928 r. Osób sądziła, że ​​etycznie lepiej byłoby, gdyby samochody autonomiczne poświęciły pasażerów, niż wpadły na pieszych. Jednak większość stwierdziła również, że nie kupiliby samochodów autonomicznych, gdyby samochód ten nadawał priorytet bezpieczeństwu pieszych nad własnym.

tymtam
źródło
3

Szczerze mówiąc, myślę, że ten problem (problem z wózkiem) jest z natury nadmiernie skomplikowany, ponieważ rozwiązanie rzeczywistego świata może być dość proste. Podobnie jak ludzki kierowca, kierowca AI będzie zaprogramowany tak, aby działał przez cały czas w sposób ogólnie etyczny, zawsze wybierając sposób działania, który nie zaszkodzi ani nie zaszkodzi najmniej.

Jeśli kierowca AI napotka niebezpieczeństwo, takie jak bezpośrednie uszkodzenie mienia, oczywiście AI zahamuje mocno i skieruje samochód z dala od łamliwych przedmiotów, aby uniknąć lub zminimalizować uderzenie. Jeśli niebezpieczeństwo uderzy w pieszego, samochód lub budynek, zdecyduje się na zderzenie z najmniej cennym lub drogim przedmiotem, jaki może uczynić, aby wyrządzić jak najmniej szkody - przypisując człowiekowi wyższą wartość niż budynek lub pies.

Wreszcie, jeśli kierowcą sztucznej inteligencji twojego samochodu jest przejechanie dziecka lub uderzenie w ścianę ... kieruje on samochód wraz z tobą w ścianę. Tak postąpiłby każdy dobry człowiek. Dlaczego dobra sztuczna inteligencja miałaby działać inaczej?

Niespokojny
źródło
1
„AI mocno zahamuje”, „zdecyduje się zderzyć z ...”, jeśli są to stwierdzenia, czy mógłbyś zamieścić jakieś referencje? Czy są oparte na opiniach?
kenorb
1
OP postawił pytanie: „Jakie szkody AI zada?”. Myślę, że to zły cel. Ludzie tego nie robią. Zamiast tego AI zastosuje bardziej ogólną strategię unikania obrażeń i zadawania jak najmniejszych obrażeń. Ten cel optymalizacji jest bardziej intuicyjny i trudniejszy do uzasadnienia, gdy pojawiają się wątpliwości dotyczące odpowiedzialności.
Randy,
3

Nie powinni. Ludzie powinni.

Ludzie nie mogą przekazać odpowiedzialności za decyzje etyczne komputerom. Naszym zadaniem jako informatyków / ekspertów AI jest programowanie decyzji podejmowanych przez komputery. Czy z tego nadal będą istnieć ludzkie ofiary? Oczywiście, że będą - ludzie nie są doskonali, podobnie jak programy.

Jest doskonały pogłębionej debaty na ten temat tutaj . Szczególnie podoba mi się argument Yanna LeCuna dotyczący równoległego dylematu etycznego testowania potencjalnie śmiertelnych leków u pacjentów. Podobnie jak samochody samojezdne, oba mogą być śmiertelne, a jednocześnie mają dobre intencje ratowania większej liczby osób na dłuższą metę.

Charles
źródło
3

W jaki sposób samochody samojezdne mogą podejmować etyczne decyzje dotyczące tego, kogo zabić?

Zarządzając odpowiedzialnością prawną i bezpieczeństwem konsumentów.

Samochód, który zapewnia bezpieczeństwo konsumentowi, będzie samochodem kupionym przez wspomnianych konsumentów. Firmy nie chcą ponosić odpowiedzialności za zabicie swoich klientów ani nie chcą sprzedawać produktu, który wpędza użytkownika w kłopoty prawne. Odpowiedzialność prawna i bezpieczeństwo konsumentów są tym samym zagadnieniem, gdy patrzy się na nie z perspektywy „kosztów dla konsumenta”.

A oto kilka dylematów:

  • Czy algorytm rozpoznaje różnicę między człowiekiem a zwierzęciem?

Jeśli zwierzę / człowiek nie może być legalnie uniknięte (a samochód ma rację - jeśli nie jest, to coś innego jest nie tak z podejmowaniem decyzji przez AI), prawdopodobnie nie. Jeśli samochód będzie w stanie bezpiecznie ominąć przeszkodę, sztuczna inteligencja może być rozsądnie podjęta, aby podjąć tę decyzję, tj. skręć na inny pas na otwartej autostradzie. Uwaga: nacisk kładziony jest na odpowiedzialność i bezpieczeństwo kierowcy.

  • Czy wielkość istoty ludzkiej lub zwierzęcej ma znaczenie?

Tylko czynnik ryzyka uderzenia w przeszkodę. Uderzenie w hipopotama może być mniej pożądane niż trafienie do rowu. Uderzenie w psa jest prawdopodobnie bardziej pożądane niż zniszczenie samochodu klienta.

  • Czy liczy się liczba pasażerów w porównaniu do osób z przodu?

Ludzie liczą się jako pasażerowie, aby sprawdzić, czy można skorzystać z pasa do parkowania samochodów. Liczy ludzi z przodu jako czynnik ryzyka w przypadku kolizji.

  • Czy „wie”, kiedy niemowlęta / dzieci są na pokładzie?

Nie.

  • Czy bierze pod uwagę wiek (np. Zabicie najpierw starszych)?

Nie. To po prostu niewłaściwa abstrakcja do podjęcia decyzji. Jak można to przypisać do wyboru właściwego sposobu działania w celu zmniejszenia czynnika ryzyka? Jeśli opcja 1 zostanie trafiona w młodego faceta z 20% szansą na znaczną szkodę użytkownika i brak odpowiedzialności prawnej, a opcja 2 trafi w starszego mężczyznę z 21% szansą na znaczną szkodę użytkownika i bez odpowiedzialności prawnej, to o czym filozof może przekonać nawet tylko 1 osobę sprawiedliwe i sprawiedliwe wagi do podjęcia decyzji?

Na szczęście najlepszą decyzją jest przełamywanie przerw w celu zmniejszenia prędkości (szczególnie, gdy uważasz, że często warto działać przewidywalnie, aby piesi i kierowcy mogli odpowiednio zareagować). W międzyczasie można dokonać lepszej poprawy wartości, jeśli chodzi o przewidywanie, kiedy kierowcy podejmą złe decyzje, a kiedy inne działania (takie jak uderzenie w drugą stronę) będą bardziej korzystne niż wjechanie na przerwę. W tym momencie nie warto nawet gromadzić informacji, aby podejmować etyczne decyzje proponowane przez filozofów. Tak więc kwestia ta jest przesadzona przez rewelacyjnych dziennikarzy i filozofów.

Harrichael
źródło
2

Myślę, że w większości przypadków samochód domyślnie zmniejszałby prędkość jako główną opcję, a nie kierował się w stronę określonego wyboru lub od niego. Jak wspomnieli inni, posiadanie ustawień związanych z etyką to po prostu zły pomysł. Co się stanie, jeśli dwa samochody, które są zaprogramowane z przeciwnymi ustawieniami etycznymi i mają się zderzyć? Samochody mogłyby potencjalnie mieć system zastępujący ustawienia użytkownika i wybierający najbardziej korzystne dla obu stron rozwiązanie. To rzeczywiście ciekawa koncepcja, którą zdecydowanie należy omówić i ustandaryzować przed szerokim wdrożeniem. Oddanie etycznych decyzji w ręce maszyny sprawia, że ​​wynikająca z niej odpowiedzialność jest czasem trudna do wyobrażenia.

imhotraore
źródło
Tak, hamowanie w celu uniknięcia kolizji byłoby absolutnie najlepszym rozwiązaniem. Niestety, w niektórych przypadkach (przypadkach zadawanych w pytaniu) trafienie w coś jest nieuniknione. Wygląda na to, że zgadzasz się z niektórymi istniejącymi odpowiedziami. Pamiętaj, że chcielibyśmy, aby każda odpowiedź mogła być samodzielna. Gdy zdobędziesz wystarczającą reputację, będziesz mógł głosować na odpowiedzi, które Twoim zdaniem są pomocne. Problem dwóch przeciwstawnie skonfigurowanych samochodów jest rzeczywiście interesujący; byłoby wspaniale, gdybyś edytował swoją odpowiedź, aby ją rozwinąć. Dzięki!
Ben N
Bardzo dziękuję za odpowiedź, naprawdę doceniam ją i wykorzystam w przyszłości. Nie wiedziałem o wytycznych dotyczących odpowiedzi.
imhotraore,
1

Myślę, że nie byłoby sposobu na edycję takich ustawień etycznych w samochodzie. Ale hej, jeśli telefony komórkowe można zrootować, dlaczego nie samochody? Wyobrażam sobie, że w przyszłości będą dostępne kompilacje Linuksa dla określonych modeli, które pozwolą Ci robić, co chcesz.

Jeśli chodzi o to, kto podejmie takie decyzje, będzie to przypominać dzisiejsze problemy związane z prywatnością. Koc będzie prowadzony przez holownik wojny przez dostawców systemów operacyjnych (którzy spróbują ustawić minimalną liczbę rannych, każda z własnymi metodami), firm ubezpieczeniowych (które będą próbowały zmusić cię do zapłaty więcej dla systemów operacyjnych, które będą statystycznie pokazane, aby łatwiej uszkodzić samochód), oraz producentów samochodów (którzy będą chcieli, abyś jak najszybciej zniszczył samochód, abyś kupił nowy; lub sprawi, że samochody będą śmieszne) kwota usługi $$$).

Potem wyjdzie jakiś informator i ujawni fragment kodu, który decyduje się zabić małe dzieci nad dorosłymi - ponieważ będzie im trudniej odróżnić je od zwierząt i zaryzykuje uratowanie tego, kogo z pewnością rozpozna jako ludzi. Producent systemu operacyjnego otrzyma opinię publiczną i zostanie osiągnięty nowy konsensus. Informatorzy ujawnią się także od firm ubezpieczeniowych i producentów samochodów.

Ludzkość weźmie gorącą patelnię i spali się, a następnie nauczy się zakładać rękawiczki. Moja rada upewni mnie tylko, że nie będziesz tą ręką - trzymaj się od nich z daleka przez kilka lat, aż popełnią wszystkie wczesne błędy.

Stefanio
źródło
1

Jedynym rozsądnym wyborem jest zastosowanie przewidywalnego zachowania. Więc w scenariuszu przed samochodem: Najpierw samochód uderza w hamulce, jednocześnie trąbi klakson i jedzie dalej. Ludzie mają wtedy szansę zeskoczyć z drogi, prowadząc do śmierci zero osób. Również przy pełnym hamowaniu (przejście z 50 km na godzinę do zera to mniej niż 3 długości samochodu), sytuacja uderzenia jest prawie nie do wyobrażenia. Nawet jeśli nie można osiągnąć kropki, poważne uszkodzenie pieszych jest mało prawdopodobne.

Drugi scenariusz jest po prostu szalony. Więc odległość musi być mniejsza niż 3 długości samochodu, co najmniej 1 długość samochodu jest potrzebna do sterowania, wtedy wypadek samochodowy jest niekontrolowaną sytuacją, może prowadzić do obracania się i zabijania wszystkich 11 osób.

Oprócz powiedzenia, że ​​nie wierzę, że w rzeczywistości istnieje przykład, w którym istnieje dylemat; rozwiązanie w tych mało prawdopodobnych przypadkach, jeśli jest zgodne z oczekiwaniami strony przeciwnej, aby umożliwić drugiej stronie również złagodzenie sytuacji.

lalala
źródło
Czy możesz spróbować odpowiedzieć na pierwszą odpowiedź zamieszczoną przez Bena, a następnie spróbować edytować swoją odpowiedź zgodnie z tym, o co chodzi w sztucznej inteligencji?
kwintumnia
czy możesz być bardziej szczegółowy? Przeczytałem pierwszą odpowiedź bensa, ale nie widzę, jak to się wiąże. Czy potrafisz wyjaśnić, o co chodzi w sztucznej inteligencji?
lalala
Chodziło mi o to, aby mieć wiedzę na temat sztucznej inteligencji, więc twoja odpowiedź może zostać odrzucona lub nic nie widać; twój majestat!
kwintumnia
@quintumnia Ta odpowiedź wydaje mi się w porządku (+1) - kontynuowanie bez próby skręcania lub podejmowania decyzji jest prawidłowym wyborem.
Ben N