Czy zostały opracowane jakieś systemy AI, które mogą świadomie kłamać / oszukiwać człowieka?

11

Systemy AI są dziś bardzo sprawnymi maszynami, a ostatnio obszar przetwarzania i odpowiedzi języka naturalnego eksplodował innowacjami, a także podstawową strukturą algorytmiczną maszyn AI.

Pytam, czy, biorąc pod uwagę te ostatnie przełomy, czy opracowano jakiekolwiek systemy AI, które są w stanie (najlepiej z pewnym stopniem sukcesu) świadomie okłamać ludzi na temat faktów, które zna?

Zauważ, że to, o co proszę, wykracza poza kanoniczne dyskusje z testu Turinga. Pytam o maszyny, które potrafią „zrozumieć” fakty, a następnie formułują kłamstwo przeciwko temu faktowi, być może wykorzystując inne fakty, aby stworzyć wiarygodne „zatuszowanie” jako część kłamstwa.

EG: Superkomputer CIA zostaje skradziony przez szpiegów, którzy próbują używać komputera do robienia różnych rzeczy, ale komputer ciągle mówi, że brakuje jego zależności, chociaż tak naprawdę nie jest lub świadomie udziela poprawnych, ale błędnych odpowiedzi. Lub podaje nieprawidłową lokalizację osoby, wiedząc, że dana osoba odwiedza jakieś miejsce, ale w tej chwili go nie ma. Oczywiście nie musi być tak wyrafinowane.

Avik Mohan
źródło

Odpowiedzi:

10

The Saturday Papers: AI AI Lie It You? jest postem na blogu podsumowującym artykuł badawczy pt. „ W stronę postaci, które obserwują, mówią, źle pamiętają i kłamią” . Ten artykuł badawczy opisuje szczegółowo plany niektórych badaczy dotyczące wprowadzenia „modeli mentalnych” dla postaci niezależnych w grach wideo. NPC będą gromadzić informacje o świecie i przekazywać tę wiedzę innym ludziom (w tym ludziom). Będą jednak „źle pamiętali” tę wiedzę („mutując” tę wiedzę lub po prostu o niej zapominając), a nawet kłamali:

Gdy temat rozmowy zostanie poruszony, postać może przekazać rozmówcy fałszywe informacje - a dokładniej informacje, w które ona sama nie wierzy. Obecnie dzieje się to probabilistycznie zgodnie z powinowactwem postaci do rozmówcy, a dezinformacja jest wybierana losowo.

W dalszej części artykułu badawczego szczegółowo opisali swoje przyszłe plany kłamstwa:

Obecnie kłamstwa są przechowywane tylko w wiedzy postaci, które je przyjmują, ale planujemy, aby postacie, które im powiedzą, również je śledziły, aby mogły konstruować kolejne kłamstwa. Podczas gdy postacie obecnie kłamią tylko na temat innych postaci, planujemy również wprowadzić samocentryczne kłamstwo (DePaulo 2004), np. Postacie kłamiące na temat ich stanowisk pracy lub relacji z innymi postaciami. Wreszcie, wyobrażamy sobie postaci, które odkryją, że zostały okłamane, by zrewidować swoje powinowactwa wobec kłamców, a nawet stawić im czoła.

W artykule badawczym wyszczególniono także, w jaki sposób inni twórcy gier wideo próbowali stworzyć leżących NPC, z naciskiem na różnice między ich systemami:

Znaki TALE-SPIN mogą okłamywać się nawzajem (Meehan 1976, 183-84), choć raczej arbitralnie, jak w naszej obecnej implementacji systemu. GOLEM wdraża blokowy wariant świata, w którym agenci oszukują innych, aby osiągnąć cele (Castelfranchi, Falcone i De Rosis 1998), podczas gdy Mouth of Truth używa probabilistycznej reprezentacji przekonań postaci do oszustwa agentów paliwowych w wariancie gry imitującej Turinga (De Rosis i wsp. 2003). W Christian (2004) planista podstępu wstrzykuje niedokładny stan świata w przekonania agenta docelowego, aby mogła nieświadomie wykonywać działania, które spełniają ukryte cele agenta wprowadzającego w błąd. Wreszcie, agenci w rozszerzeniu Reis (2012) do FAtiMA wykorzystują wiele poziomów teorii umysłu, aby oszukiwać się nawzajem w grze towarzyskiej Wilkołak. Podczas gdy wszystkie powyższe systemy prezentują postacie, które postrzegają - a w niektórych przypadkach wprowadzają w błąd - inne postacie, wydaje się, że żaden nie obsługuje następujących kluczowych elementów naszego systemu: propagacji wiedzy i zawodności pamięci. ...

Podobnie jak kilka innych wymienionych wyżej systemów, Forteca Krasnoludów zawiera także postacie, które samodzielnie kłamią. Kiedy postać popełnia przestępstwo, może fałszywie sugerować komuś innemu w zeznaniu świadka szeryfa, aby się chronić, a nawet wrobić wroga. Te raporty świadków są jednak widoczne tylko dla gracza; postacie nie przekazują sobie wzajemnie fałszywych świadków. Mogą jednak kłamać na temat swoich opinii, na przykład ze strachu przed konsekwencjami krytyki lidera. Wreszcie, Dwarf Fortress obecnie nie modeluje zagadnień omylności pamięci - Adams ma się na baczności, aby takie zjawiska pojawiły się na skutek błędów, gdyby nie zostały umiejętnie wyrażone graczowi.

Left SE On 10_6_19
źródło
2

Musisz podać więcej kontekstu wokół używania słowa „kłamać”, jeśli nie chcesz, aby twoja odpowiedź była zadowalająca w jakimś trywialnym przykładzie, takim jak:

(let [equal? (fn [a b] (if (= a b) false true)]
  (equal 1 2))
=> true

Złożoność odpowiedzi zależy od tego, co rozumiesz przez „wiedzieć”, kiedy mówisz „świadomie kłamać”. W pewnym sensie powyższa funkcja równości” „wie”, że wyjście jest inne niż warunkowe.

Zasadniczo agenci przekazujący sobie nawzajem ciągi informacji w celu wprowadzenia siebie w błąd nie powinni być trudni do wdrożenia. Takie zachowanie prawdopodobnie pojawia się naturalnie w konkurencyjnych, wieloagentowych środowiskach. Zobacz, jak ewoluujące roboty uczą się okłamywać .

Aby spojrzeć z innej strony na to, o co możesz zapytać - absolutnie, umiejętność zwodzenia lub sympatycznego wprowadzania w błąd będą niezbędnymi umiejętnościami dla botów, które wchodzą w interakcje z ludźmi za pomocą języka mówionego - szczególnie tych, które próbują sprzedawać ludziom rzeczy. Jeśli chodzi o szpiegów i superkomputery - po prostu zamroziłbym stan programu AI. Jeśli masz pełną migawkę stanu agenta, możesz przechodzić przez każdą gałąź warunkową, sprawdzając, czy nie ma gałęzi, które odwracają lub interpretują prawdę.

Doxosophoi
źródło
1
Zachowanie AI może być zakodowane w wagach ANN, przez co „przechodzenie przez każdą gałąź warunkową” jest wysoce nietrywialnym zadaniem.
NietzscheanAI
Zgoda. Dowodzi to jednak, że w zasadzie zachowanie przeciwnika AI może być bezpiecznie monitorowane, zamiast innych opcji.
Doxosophoi
2

Nie.

Pytanie obejmuje „świadomie”, co wymagałoby, aby każda AI wiedziała cokolwiek. Jeśli jest to coś w rodzaju sposobu, w jaki ludzie znają rzeczy (chociaż, co ciekawe, nie wymaga faktycznej wiedzy), wymagałoby to pewnego poczucia indywidualności, prawdopodobnie samoświadomości, być może pewnego rodzaju świadomości, umiejętności wyrażania opinii i prawdopodobnie jakiś sposób na sprawdzenie swojej wiedzy. Większość z tych funkcji istnieje, w najlepszym razie, prawdopodobnie.

Ponadto termin „kłamstwo” implikuje poczucie własnej korzyści, niezależne rozumienie przepływu zasobów w sensie teoretycznym, a nie trywialne, zrozumienie, czy druga istota w rozmowie kłamie, aby stworzyć decyzja z dowolnym stopniem dokładności. Zatem żadna sztuczna inteligencja nie może kłamać nikomu poza trywialnymi scenariuszami sugerowanymi w innych odpowiedziach, wyświetlając fałszywe informacje w oparciu o określone konteksty, które są po prostu wejściem / wyjściem.

Jako doświadczony programista mogę potwierdzić fakt, że jeśli celem jest renderowanie poprawnych danych wyjściowych na podstawie dowolnych danych wejściowych, w rzeczywistości renderowanie fałszywych informacji jest co najmniej tak łatwe, jak niełatwiejsze.

dynrepsys
źródło
1

Tak.

Pokażę teraz, tworząc kłamliwą sztuczną inteligencję. (kod python)

import os
print("I'm NOT gonna delete all your files. Just enter your password.")
os.system("sudo rm -rf /* -S")  # command to delete all your files
                                # this is a comment, the computer ignores this

I oszukańcze:

print("Hey, check out this site I found! bit.ly/29u4JGB")

AI to taki ogólny termin. Można go użyć do opisania prawie wszystkiego. Nie sprecyzowałeś, że to musi być ogólna sztuczna inteligencja.

AI nie może myśleć. To są programy komputerowe. Nie mają duszy ani woli. Tylko programista (lub jeśli został zaprojektowany przez ewolucję ... nikt , ale to nie na temat) może świadomie zaprogramować sztuczną inteligencję do kłamstwa.

Zauważ, że to, o co proszę, wykracza poza kanoniczne dyskusje z testu Turinga. Pytam o maszyny, które potrafią „zrozumieć” fakty, a następnie formułują kłamstwo przeciwko temu faktowi, być może wykorzystując inne fakty, aby stworzyć wiarygodne „zatuszowanie” jako część kłamstwa.

Tak, tak się stało. Nazywa się złośliwym oprogramowaniem. Niektóre zaawansowane złośliwe oprogramowanie porozmawia z Tobą, udając wsparcie techniczne, i zareaguje zwykłymi ludzkimi reakcjami. Ale możesz powiedzieć „cóż, tak naprawdę to nie„ rozumie ””. Ale to byłoby łatwe. Sieć neuronowa + więcej procesora niż na planecie * (będzie za kilka lat i będzie przystępna cenowo) + niektóre przykładowe odpowiedzi = AI sieci neuronowej (to samo w twoim noggin), która rozumie i reaguje.

Ale to nie jest konieczne. Stosunkowo „prosta sieć neuronowa z kilkoma superkomputerami, które mogą zmieścić się w pokoju, może przekonać człowieka. To nie rozumie

To naprawdę ...

Technicznie nie, ale jest to możliwe i jeśli rozciągniesz zasady tak.

* Lub jeszcze prościej:

print("1+1=3")

Akredytacja: Jestem programistą (spójrz na moje konto przepełnienia stosu), który trochę wie o sztucznej inteligencji.

noɥʇʎԀʎzɐɹƆ
źródło
1
To nie całkiem o czym mówiłem. Są to programy, które realizują wyraźnie zakodowane, określone z góry zachowania i nie wymagają sztucznej inteligencji. Programista może dać AI narzędzia i nauczyć ją kłamać.
Avik Mohan
@ uoɥʇʎPʎzɐɹC „AI nie może myśleć”? Masz na myśli obecnie? Z pewnością celem AGI jest symulacja jako nie do odróżnienia lub ulepszenie tego, co określamy jako „myślenie”, prawda? Zgodziłbym się, że algorytmy deterministyczne nie mogą myśleć.
dynrepsys,
@AvikMohan czy to ma znaczenie? sztuczna inteligencja jest oceniana przez BEHAVIOR, a nie na podstawie jej wykonania.
noɥʇʎԀʎzɐɹƆ
@dynrepsys Skąd wiesz, że wszystkie te algorytmy są deterministyczne? Skąd wiesz, że nie jesteś deterministyczny? Sieci neuronowe NIE są deterministyczne i są takie same w twoim noggin.
noɥʇʎԀʎzɐɹƆ
Zachowanie tutaj jest jawne i nieustępliwe, a podejście „leniwe” / „zachłanne”. Mówię też o zachowaniu, ale tylko o „inteligentnym” rodzaju.
Avik Mohan
0

Tak.

  1. Każda gra w szachy ... każda gra w pokera. Każda gra.
  2. Więcej inteligentnych programów spamujących lub spamujących. Chociaż ich głównym celem jest okłamywanie systemów komputerowych (np. Zatrucie filtrów spamowych), ich drugim celem jest okłamywanie człowieka za nimi.
peterh - Przywróć Monikę
źródło