The Saturday Papers: AI AI Lie It You? jest postem na blogu podsumowującym artykuł badawczy pt. „ W stronę postaci, które obserwują, mówią, źle pamiętają i kłamią” . Ten artykuł badawczy opisuje szczegółowo plany niektórych badaczy dotyczące wprowadzenia „modeli mentalnych” dla postaci niezależnych w grach wideo. NPC będą gromadzić informacje o świecie i przekazywać tę wiedzę innym ludziom (w tym ludziom). Będą jednak „źle pamiętali” tę wiedzę („mutując” tę wiedzę lub po prostu o niej zapominając), a nawet kłamali:
Gdy temat rozmowy zostanie poruszony, postać może przekazać rozmówcy fałszywe informacje - a dokładniej informacje, w które ona sama nie wierzy. Obecnie dzieje się to probabilistycznie zgodnie z powinowactwem postaci do rozmówcy, a dezinformacja jest wybierana losowo.
W dalszej części artykułu badawczego szczegółowo opisali swoje przyszłe plany kłamstwa:
Obecnie kłamstwa są przechowywane tylko w wiedzy postaci, które je przyjmują, ale planujemy, aby postacie, które im powiedzą, również je śledziły, aby mogły konstruować kolejne kłamstwa. Podczas gdy postacie obecnie kłamią tylko na temat innych postaci, planujemy również wprowadzić samocentryczne kłamstwo (DePaulo 2004), np. Postacie kłamiące na temat ich stanowisk pracy lub relacji z innymi postaciami. Wreszcie, wyobrażamy sobie postaci, które odkryją, że zostały okłamane, by zrewidować swoje powinowactwa wobec kłamców, a nawet stawić im czoła.
W artykule badawczym wyszczególniono także, w jaki sposób inni twórcy gier wideo próbowali stworzyć leżących NPC, z naciskiem na różnice między ich systemami:
Znaki TALE-SPIN mogą okłamywać się nawzajem (Meehan 1976, 183-84), choć raczej arbitralnie, jak w naszej obecnej implementacji systemu. GOLEM wdraża blokowy wariant świata, w którym agenci oszukują innych, aby osiągnąć cele (Castelfranchi, Falcone i De Rosis 1998), podczas gdy Mouth of Truth używa probabilistycznej reprezentacji przekonań postaci do oszustwa agentów paliwowych w wariancie gry imitującej Turinga (De Rosis i wsp. 2003). W Christian (2004) planista podstępu wstrzykuje niedokładny stan świata w przekonania agenta docelowego, aby mogła nieświadomie wykonywać działania, które spełniają ukryte cele agenta wprowadzającego w błąd. Wreszcie, agenci w rozszerzeniu Reis (2012) do FAtiMA wykorzystują wiele poziomów teorii umysłu, aby oszukiwać się nawzajem w grze towarzyskiej Wilkołak. Podczas gdy wszystkie powyższe systemy prezentują postacie, które postrzegają - a w niektórych przypadkach wprowadzają w błąd - inne postacie, wydaje się, że żaden nie obsługuje następujących kluczowych elementów naszego systemu: propagacji wiedzy i zawodności pamięci. ...
Podobnie jak kilka innych wymienionych wyżej systemów, Forteca Krasnoludów zawiera także postacie, które samodzielnie kłamią. Kiedy postać popełnia przestępstwo, może fałszywie sugerować komuś innemu w zeznaniu świadka szeryfa, aby się chronić, a nawet wrobić wroga. Te raporty świadków są jednak widoczne tylko dla gracza; postacie nie przekazują sobie wzajemnie fałszywych świadków. Mogą jednak kłamać na temat swoich opinii, na przykład ze strachu przed konsekwencjami krytyki lidera. Wreszcie, Dwarf Fortress obecnie nie modeluje zagadnień omylności pamięci - Adams ma się na baczności, aby takie zjawiska pojawiły się na skutek błędów, gdyby nie zostały umiejętnie wyrażone graczowi.
Nie.
Pytanie obejmuje „świadomie”, co wymagałoby, aby każda AI wiedziała cokolwiek. Jeśli jest to coś w rodzaju sposobu, w jaki ludzie znają rzeczy (chociaż, co ciekawe, nie wymaga faktycznej wiedzy), wymagałoby to pewnego poczucia indywidualności, prawdopodobnie samoświadomości, być może pewnego rodzaju świadomości, umiejętności wyrażania opinii i prawdopodobnie jakiś sposób na sprawdzenie swojej wiedzy. Większość z tych funkcji istnieje, w najlepszym razie, prawdopodobnie.
Ponadto termin „kłamstwo” implikuje poczucie własnej korzyści, niezależne rozumienie przepływu zasobów w sensie teoretycznym, a nie trywialne, zrozumienie, czy druga istota w rozmowie kłamie, aby stworzyć decyzja z dowolnym stopniem dokładności. Zatem żadna sztuczna inteligencja nie może kłamać nikomu poza trywialnymi scenariuszami sugerowanymi w innych odpowiedziach, wyświetlając fałszywe informacje w oparciu o określone konteksty, które są po prostu wejściem / wyjściem.
Jako doświadczony programista mogę potwierdzić fakt, że jeśli celem jest renderowanie poprawnych danych wyjściowych na podstawie dowolnych danych wejściowych, w rzeczywistości renderowanie fałszywych informacji jest co najmniej tak łatwe, jak niełatwiejsze.
źródło
Tak.
Pokażę teraz, tworząc kłamliwą sztuczną inteligencję. (kod python)
I oszukańcze:
AI to taki ogólny termin. Można go użyć do opisania prawie wszystkiego. Nie sprecyzowałeś, że to musi być ogólna sztuczna inteligencja.
AI nie może myśleć. To są programy komputerowe. Nie mają duszy ani woli. Tylko programista (lub jeśli został zaprojektowany przez ewolucję ... nikt , ale to nie na temat) może świadomie zaprogramować sztuczną inteligencję do kłamstwa.
Tak, tak się stało. Nazywa się złośliwym oprogramowaniem. Niektóre zaawansowane złośliwe oprogramowanie porozmawia z Tobą, udając wsparcie techniczne, i zareaguje zwykłymi ludzkimi reakcjami. Ale możesz powiedzieć „cóż, tak naprawdę to nie„ rozumie ””. Ale to byłoby łatwe. Sieć neuronowa + więcej procesora niż na planecie * (będzie za kilka lat i będzie przystępna cenowo) + niektóre przykładowe odpowiedzi = AI sieci neuronowej (to samo w twoim noggin), która rozumie i reaguje.
Ale to nie jest konieczne. Stosunkowo „prosta sieć neuronowa z kilkoma superkomputerami, które mogą zmieścić się w pokoju, może przekonać człowieka. To nie rozumie
To naprawdę ...
Technicznie nie, ale jest to możliwe i jeśli rozciągniesz zasady tak.
* Lub jeszcze prościej:
Akredytacja: Jestem programistą (spójrz na moje konto przepełnienia stosu), który trochę wie o sztucznej inteligencji.
źródło
Tak.
źródło