Jestem doktorantem informatyki i obecnie tworzę najnowocześniejszy przegląd aplikacji wykonanych w Etyce Maszyn (multidyscyplinarna dziedzina łącząca filozofię i sztuczną inteligencję, która zajmuje się tworzeniem jawnych programów lub agentów etycznych). Wydaje się, że dziedzina zawiera głównie argumenty teoretyczne i jest stosunkowo mało wdrożeń, mimo że w tej dziedzinie jest wiele osób z wykształceniem technicznym.
Rozumiem, że ponieważ w grę wchodzi etyka, nie ma żadnej podstawowej prawdy, a ponieważ jest to część filozofii, można się pogubić w sporze o to, jaki rodzaj etyki należy wdrożyć i jak najlepiej to zrobić. Jednak w informatyce zwykle próbuje się nawet wdrożyć prostą implementację, aby pokazać możliwości lub ograniczenia twojego podejścia.
Jakie są możliwe powody, dla których tak mało zrobiono, jeśli chodzi o jawne wdrażanie etyki w sztucznej inteligencji i eksperymentowanie z nią?
źródło
Odpowiedzi:
To z konieczności odpowiedź na wysokim poziomie i wysoce spekulacyjna, ale zastanawiałem się nad tym pytaniem i oto moje przemyślenia:
Po słynnej porażce Russella i Whitehead i twierdzeniu o niekompletności Gödela wydaje się to problematyczne.
Widzisz to w samochodach samojezdnych, ponieważ inżynierowie nie mają innego wyboru, jak poradzić sobie z problemem. Z drugiej strony nie sądzę, że zobaczysz wiele algorytmicznych firm obrotu giełdowego, w których działalnością jest wydajność Pareto , martwiąca się o etykę lub społeczne skutki spekulacji finansowych. (Wydaje się, że rozwiązaniem „flash crash” były zasady tymczasowego zawieszenia handlu zamiast zajmowania się wartością społeczną handlu algorytmicznego o wysokiej częstotliwości.) Bardziej oczywistym przykładem jest to, że firmy społecznościowe ignorują ekstremalne ilości nadużywania informacji (dezinformacja oraz dezinformacji) zamieszczanych na ich stronach, powołując się na niewiedzę, co jest wysoce podejrzane, ponieważ działalność generowana przez nadużycie informacji pozytywnie wpływa na ich wyniki finansowe.
Podstawową dyrektywą korporacji jest zwrot zysków inwestorom. Nierzadko korporacje łamią prawo, gdy oczekuje się, że grzywny i kary będą niższe niż zysk osiągnięty z nielegalnej działalności. (W biznesie istnieje koncepcja etyki, ale ogólnie kultura wydaje się oceniać ludzi i firmy na podstawie tego, ile zarabiają, bez względu na środki).
Jeśli superinteligencje ewoluują i niszczą ludzkość (o czym ostrzegają niektórzy bardzo inteligentni ludzie o lepszych umiejętnościach matematycznych), mam wrażenie, że będzie to funkcja natury, gdzie nieograniczona ewolucja tych algorytmów jest spowodowana ekonomicznymi czynnikami, które koncentrują się na hiper - automaty partyzanckie w branżach takich jak spekulacja finansowa i autonomiczna wojna. Zasadniczo, ściganie zysków za wszelką cenę, niezależnie od skutków.
źródło
Wydaje mi się, że częścią problemu jest to, że bardzo mało jest etycznych wdrożeń technologii AI / ML, po prostu dlatego, że nie ma potrzeby ani właściwego stosowania ram teoretycznych.
Rozumiem przez to, że nie ma istotnych sposobów zastosowania tego zrozumienia do algorytmów i modeli, które nie mogą oddziaływać w znaczący sposób. Mamy tak duże ramy teoretyczne dotyczące bezpieczeństwa / etyki AI, ponieważ jest to niezwykle ważne. Musimy opracować bezpieczne wytyczne dotyczące wdrażania silnej AI przed jej utworzeniem.
Niektóre bardzo skoncentrowane artykuły zaczęły zawężać kwestie tworzenia etycznych / bezpiecznych systemów AI. Zobacz Konkretne problemy w bezpieczeństwie AI
źródło
Dzięki metodzie imitacji najbardziej odpowiednie zachowanie można zintegrować ze sztuczną inteligencją. Sztuczna inteligencja może zostać przekształcona, gdy zmieni się pozycja etyczna. Służy do celów ideologicznych lub do zbierania informacji. Nie jest jasne, czym jest robot.
źródło
Możemy wziąć model błędu do księgowego. Rozpoznanie stronniczości i wariancji wydajności w sieciach neuronowych może być pierwszym krokiem. Następnie możemy omówić, czy taka wydajność jest dozwolona. O ile wiemy, praktykowanie grup etnicznych wymaga badań empirycznych i terenowych. nie możemy po prostu wziąć uzasadnienia i papierowych esejów, aby ustalić, czy działania wyuczonych maszyn są złe, czy nie. Można go dalej podzielić na wypadki, błędy, a nawet błędy utworzone od programistów.
źródło
Intuicyjnie wydaje się, że mało jest badań nad wdrażaniem etyki AI, ponieważ:
Wydaje się, że społeczeństwo jako całość zgadza się, że obecny stan inteligencji maszynowej nie jest wystarczająco silny, aby uznać ją za świadomą lub świadomą. Dlatego nie musimy (jeszcze) nadawać mu praw etycznych.
Wdrożenie etycznego zachowania w programie wymaga metody umożliwiającej komputerowi interpretację „znaczenia”, czego jeszcze nie wiemy.
źródło