W ostatnim artykule Wall Street Journal Yann LeCunn wypowiada się następująco:
Następnym krokiem w osiąganiu ai na poziomie ludzkim jest stworzenie inteligentnych - ale nie autonomicznych - maszyn. System AI w twoim samochodzie bezpiecznie zabierze Cię do domu, ale nie wybierzesz innego miejsca docelowego, gdy wejdziesz do środka. Następnie dodamy podstawowe popędy, emocje i wartości moralne. Jeśli tworzymy maszyny, które uczą się tak samo, jak nasze mózgi, łatwo sobie wyobrazić, że odziedziczą cechy ludzkie - i wady.
Osobiście ogólnie uważam, że mówienie o emocjach dla sztucznej inteligencji jest głupie, ponieważ nie byłoby powodu tworzyć sztucznej inteligencji, która doświadcza emocji. Oczywiście Yann się nie zgadza. Pytanie brzmi: po co temu służyć? Czy AI potrzebuje emocji, aby służyć jako przydatne narzędzie?
źródło
Odpowiedzi:
Odpowiedź na to pytanie, w przeciwieństwie do wielu osób na tym forum, wydaje mi się ostateczna. Nie. Nie potrzebujemy sztucznej inteligencji, aby emocje były użyteczne, co widać po wielu AI, które już mamy, które są przydatne.
Ale aby dalej odpowiedzieć na to pytanie, tak naprawdę nie możemy dać emocji AI. Myślę, że najbliższe byłoby: „Czy możemy sprawić, by ta sztuczna inteligencja działała tak, jak zrobiłby to człowiek, gdyby ten człowiek był
insert emotion
?”. W pewnym sensie to emocje, ale to zupełnie inna dyskusja.I w jakim celu? Jedynym bezpośrednim powodem, który przyjdzie mi do głowy, jest stworzenie bardziej realistycznych towarzyszy lub interakcji do celów gier wideo lub innej rozrywki. Dobry cel,
ale daleki od konieczności. Nawet biorąc pod uwagę robota powitalnego nasyconego AI w lobby jakiegoś budynku, prawdopodobnie chcielibyśmy tylko, aby zachowywał się serdecznie.
Yann mówi, że super zaawansowana sztuczna inteligencja prowadziłaby do bardziej ludzkich cech i wad. Myślę, że bardziej przypomina to, że „nadałoby naszej sztucznej inteligencji bardziej ludzkie cechy lub innymi słowy wady”. Ludzie mają skłonność do irracjonalnego działania, gdy są smutni lub źli, a przeważnie chcemy tylko racjonalnej sztucznej inteligencji.
Błędem jest jak mówią ludzie.
Celem sztucznej inteligencji i algorytmów uczenia się jest tworzenie systemów, które działają lub „myślą” jak ludzie, ale lepiej. Systemy, które mogą się dostosowywać lub ewoluować, jednocześnie psując jak najmniej. Emotive AI ma zastosowania, ale z pewnością nie jest warunkiem wstępnym przydatnego systemu.
źródło
Myślę, że podstawowe pytanie brzmi: po co próbować budować AI? Jeśli ten cel jest jasny, zapewni jasność, czy sens emocjonalny w sztucznej inteligencji ma sens. Niektóre próby, takie jak „Paro”, które zostały opracowane ze względów terapeutycznych, wymagają pewnych ludzkich emocji. Ponownie zauważ, że „pokazywanie” emocji i „odczuwanie” emocji to dwie zupełnie różne rzeczy.
Możesz zaprogramować coś takiego jak paro, aby modulować tony głosu lub drgnięcia twarzy, aby wyrazić współczucie, przywiązanie, towarzystwo itp. - ale robiąc to, paro NIE empatuje się ze swoim właścicielem - po prostu udaje, że wykonuje fizyczne manifestacje emocji. Nigdy „nie odczuwa” niczego bliżej tego, co wywołuje ta emocja w ludzkim mózgu.
To rozróżnienie jest więc naprawdę ważne. Aby coś poczuć, musi istnieć niezależny, autonomiczny podmiot, który ma zdolność odczuwania. Uczucia nie można narzucić przez zewnętrznego człowieka.
Wracając do pytania o cel, który rozwiązuje - odpowiedź naprawdę jest - Zależy. I myślę, że najwięcej, co kiedykolwiek osiągniemy dzięki sztucznej inteligencji na bazie silikonu, pozostanie domeną fizycznych reprezentacji emocji.
źródło
Myślę, że emocje nie są konieczne, aby agent AI był przydatny. Ale myślę też, że mogą sprawić, że agent będzie O wiele przyjemniejszy w pracy. Jeśli bot, z którym rozmawiasz, potrafi odczytać twoje emocje i konstruktywnie zareagować, doświadczenie interakcji z nim będzie znacznie przyjemniejsze, być może spektakularne.
Wyobraź sobie, że dziś kontaktujesz się z przedstawicielem centrum obsługi klienta w sprawie skargi na rachunek lub produkt. Przewidujesz konflikt. Być może zdecydowałeś się NIE dzwonić, ponieważ wiesz, że to doświadczenie będzie bolesne, walczące lub frustrujące, ponieważ ktoś źle zrozumie, co mówisz, lub zareaguje wrogo lub głupio.
Teraz wyobraź sobie, że dzwonisz do najmądrzejszej i najbardziej skoncentrowanej osoby do obsługi klienta, jaką kiedykolwiek spotkałeś - Commander Data - której jedynym powodem jest to, aby ta rozmowa telefoniczna była dla Ciebie jak najbardziej przyjemna i produktywna. Duża poprawa w stosunku do większości przedstawicieli, tak? Wyobraź sobie, że jeśli przedstawiciel ds. Połączeń może również przewidzieć twój nastrój i odpowiednio zareagować na twoje skargi, aby rozładować swój stan emocjonalny ... chciałbyś poślubić tego faceta. Możesz zadzwonić do przedstawiciela ds. Połączeń za każdym razem, gdy poczujesz się przygnębiony lub znudzony albo chcesz podzielić się radosnymi wiadomościami. Ten facet stałby się twoim najlepszym przyjacielem z dnia na dzień - dosłownie miłość od pierwszego połączenia.
Jestem przekonany, że ten scenariusz jest prawidłowy. Zauważyłem w sobie zaskakującą siłę przyciągania postaci takich jak Data czy Sonny z „I Robota”. Głos jest bardzo kojący i natychmiast mnie uspokaja. Gdyby bot był również bardzo bystry, cierpliwy, kompetentny i wyrozumiały ... Naprawdę uważam, że taki bot, wyposażony w zdrową dawkę inteligencji emocjonalnej, może być niezwykle przyjemny w interakcji. O wiele bardziej satysfakcjonujące niż jakakolwiek znana mi osoba. I myślę, że to prawda nie tylko mnie.
Więc tak, myślę, że wielką wartość ma dostrajanie osobowości robota przy użyciu emocji i świadomości emocjonalnej.
źródło
Emocje w AI są przydatne, ale nie są konieczne w zależności od celu (w większości przypadków tak nie jest).
W szczególności rozpoznawanie / analiza emocji jest bardzo zaawansowana i jest z powodzeniem stosowana w wielu aplikacjach, od nauczyciela robota dla dzieci autystycznych (patrz robotyka rozwojowa) przez hazard (poker) po agentów osobistych i analizę nastrojów / kłamstw politycznych.
Poznanie emocjonalne , doświadczenie emocji robota, jest znacznie mniej rozwinięte, ale istnieją bardzo interesujące badania (patrz Wpływ na heurystykę , Probabilistyczny zespół miłosny Lovoticsa i inne ...). Rzeczywiście, nie rozumiem, dlaczego nie mogliśmy modelować emocji, takich jak miłość, ponieważ są to tylko sygnały, które można już wyciąć w ludzkich mózgach (patrz artykuł Briana D. Earpa) . Jest to trudne, ale nie niemożliwe, a faktycznie jest kilka robotów odtwarzających częściowe poznanie emocjonalne.
Uważam, że stwierdzenie „roboty mogą po prostu symulować, ale nie czuć”, jest tylko kwestią semantyki , a nie obiektywnej pojemności: na przykład, czy łódź podwodna pływa jak ryba? Samoloty latają, ale wcale nie tak jak ptaki. W końcu, czy środek techniczny naprawdę ma znaczenie, kiedy ostatecznie otrzymujemy takie samo zachowanie? Czy naprawdę możemy powiedzieć, że robot taki jak Chappie , jeśli kiedykolwiek zostanie wyprodukowany, nie będzie czuł się jak zwykły termostat?
Jednak jaki byłby sens wykorzystania poznania emocjonalnego dla sztucznej inteligencji? To pytanie jest wciąż przedmiotem debat, ale odważę się przedstawić własne spostrzeżenia:
Emocje u ludzi (i zwierząt!) Mają wpływ na wspomnienia. Są one obecnie dobrze znane w neuronauce jako dodatkowe modalności lub meta-dane, jeśli wolisz, pamięci długoterminowe: pozwalają one modulować sposób przechowywania pamięci, jej powiązania / powiązania z innymi pamięcią oraz sposobu jej odzyskiwania .
W związku z tym możemy postawić hipotezę, że główną rolą emocji jest dodanie do pamięci dodatkowych meta-informacji, aby pomóc w wnioskowaniu heurystycznym / wyszukiwaniu. Rzeczywiście, nasze wspomnienia są ogromne, istnieje wiele informacji, które przechowujemy przez całe nasze życie, więc emocje mogą być używane jako „etykiety”, aby pomóc w szybszym odzyskiwaniu odpowiednich wspomnień.
Podobne „etykiety” można łatwiej powiązać ze sobą (wspomnienia przerażających wydarzeń razem, wspomnienia szczęśliwych wydarzeń razem itp.). Jako takie, mogą pomóc przetrwać, szybko reagując i stosując znane strategie (uciekając!) Od przerażających strategii lub wyciągając jak najwięcej z korzystnych sytuacji (szczęśliwe wydarzenia, zjedz jak najwięcej, pomogą przetrwać później!). W rzeczywistości badania neuronauki odkryły, że istnieją specyficzne ścieżki wywołujące strach bodźce czuciowe, dzięki czemu szybciej docierają do siłowników (zmuszając cię do ucieczki) niż przechodząc przez zwykły cały obwód somatyczno-czuciowy jak każdy inny bodziec. Tego rodzaju rozumowanie asocjacyjne może również prowadzić do rozwiązań i wniosków, do których inaczej nie można dojść.
Uczucie empatii może ułatwić interakcję robotów / ludzi (np. Drony pomagające ofiarom katastroficznych zdarzeń).
Wirtualny model AI z emocjami może być przydatny w badaniach neurologicznych i medycznych w zaburzeniach emocjonalnych jako modele obliczeniowe do zrozumienia i / lub wnioskowania o podstawowych parametrach (jest to często wykonywane na przykład w chorobie Alzheimera i innych chorobach neurodegeneracyjnych, ale ja nie jestem jasne, czy kiedykolwiek zrobiono to z powodu zaburzeń emocjonalnych, ponieważ są one całkiem nowe w DSM).
Tak, „zimna” sztuczna inteligencja jest już przydatna, ale emocjonalna sztuczna inteligencja mogłaby z pewnością zostać zastosowana w nowych obszarach, których nie można zbadać przy użyciu samej zimnej sztucznej inteligencji. Pomoże też z pewnością zrozumieć nasz mózg, ponieważ emocje są integralną częścią.
źródło
Myślę, że to zależy od zastosowania sztucznej inteligencji. Oczywiście, jeśli opracuję sztuczną inteligencję, której celem jest po prostu wykonanie określonego zadania pod nadzorem ludzi, emocje nie będą potrzebne. Ale jeśli celem AI jest wykonywanie zadania autonomicznie, wówczas przydatne mogą być emocje lub empatia. Pomyśl na przykład o sztucznej inteligencji działającej w dziedzinie medycyny. W tym przypadku może być korzystne dla AI posiadanie pewnego rodzaju empatii, tylko po to, aby zapewnić pacjentom większy komfort. Lub jako inny przykład, pomyśl o robocie, który służy jako niania. Znów jest oczywiste, że emocje i empatia byłyby korzystne i pożądane. Nawet w przypadku asystującego programu AI (hasło inteligentny dom) emocje i empatia mogą być pożądane, aby ludzie czuli się bardziej komfortowo.
Z drugiej strony, jeśli AI pracuje tylko na linii montażowej, oczywiście nie ma potrzeby emocji i empatii (wręcz przeciwnie, w takim przypadku może to być nieopłacalne).
źródło
Silne AI
W przypadku silnej sztucznej inteligencji krótką odpowiedzią jest wezwanie pomocy, gdy mogą nawet nie wiedzieć, jaka może być rzekoma pomoc.
To zależy od tego, co zrobi AI. Jeśli ma on idealnie i profesjonalnie rozwiązać jedno łatwe zadanie, pewne emocje nie byłyby bardzo przydatne. Ale jeśli ma się uczyć nowych, losowych rzeczy, byłby punkt, w którym napotkałby coś, z czym nie mógłby sobie poradzić.
W Lee Sedol vs AlphaGo match 4, jakiś zawodowiec, który powiedział, że komputer nie ma wcześniej emocji, skomentował, że może AlphaGo też ma emocje i jest silniejszy niż człowiek. W tym przypadku wiemy, że szalone zachowanie AlphaGo nie jest spowodowane celowo dodanymi rzeczami zwanymi „emocjami”, ale wadą algorytmu. Ale zachowuje się dokładnie tak, jak spanikował.
Jeśli tak się często zdarza dla AI. Mogą się przydać korzyści, jeśli sam się o tym dowie i pomyśl dwa razy, jeśli to się stanie. Jeśli AlphaGo wykryje problem i zmieni strategię, może grać lepiej lub gorzej. Nie jest mało prawdopodobne, aby grała gorzej, gdyby nie wykonała żadnych obliczeń dla innych podejść. W przypadku, gdyby grałaby gorzej, moglibyśmy powiedzieć, że cierpi z powodu „emocji”, i to może być powód, dla którego niektórzy ludzie myślą, że emocje mogą być wadą ludzi. Ale to nie byłaby prawdziwa przyczyna problemu. Prawdziwą przyczyną jest to, że po prostu nie zna żadnych sposobów na zagwarantowanie wygranej, a zmiana strategii to tylko próba rozwiązania problemu. Komentatorzy uważają, że istnieją lepsze sposoby (które również nie gwarantują wygranej, ale miały większą szansę), ale jej algorytm nie jest W tej sytuacji mogę się dowiedzieć. Nawet u ludzi rozwiązanie wszystkiego, co dotyczy emocji, raczej nie usunie emocji, ale pewne treningi, aby upewnić się, że rozumiesz sytuację na tyle, by działać spokojnie.
Wtedy ktoś musi się spierać, czy jest to rodzaj emocji, czy nie. Zwykle nie mówimy, że małe owady mają ludzkie emocje, ponieważ ich nie rozumiemy i nie chcemy im pomóc. Ale łatwo jest wiedzieć, że niektórzy z nich mogą panikować w desperackich sytuacjach, tak jak AlphaGo. Powiedziałbym, że te reakcje oparte są na tej samej logice i są przynajmniej powodem, dla którego emocje podobne do ludzkich mogą być potencjalnie przydatne. Po prostu nie są wyrażane w sposób zrozumiały dla człowieka, ponieważ nie zamierzali wzywać człowieka do pomocy.
Jeśli próbują zrozumieć własne zachowanie lub wezwać kogoś do pomocy, dobrze być podobnym do człowieka. Niektóre zwierzęta mogą wyczuwać ludzkie emocje i do pewnego stopnia wyrażać emocje zrozumiałe dla człowieka. Celem jest interakcja z ludźmi. Ewoluowali, aby mieć tę umiejętność, ponieważ w pewnym momencie jej potrzebowali. Prawdopodobnie potrzebowałaby go też w pełni silna sztuczna inteligencja. Zauważ też, że odwrotność posiadania pełnych emocji może być szalona.
Jest to prawdopodobnie szybki sposób na utratę zaufania, jeśli ktoś po prostu wdroży emocje naśladujące ludzi z niewielkim zrozumieniem w pierwszych pokoleniach.
Słabe AI
Ale czy są jakieś cele, aby mieć emocje, zanim ktoś chciał silnej AI? Powiedziałbym „nie”, nie ma żadnych nieodłącznych powodów, dla których muszą mieć emocje. Ale nieuchronnie ktoś i tak będzie chciał wdrożyć naśladowane emocje. To, czy „potrzebujemy” emocji, jest po prostu bzdurą.
Faktem jest, że nawet niektóre programy bez inteligencji zawierały pewne „emocjonalne” elementy w swoich interfejsach użytkownika. Mogą wyglądać nieprofesjonalnie, ale nie każde zadanie wymaga profesjonalizmu, aby mogły być całkowicie akceptowane. Są jak emocje w muzyce i sztuce. W ten sposób ktoś również zaprojektuje swoją słabą sztuczną inteligencję. Ale tak naprawdę nie są to emocje AI, ale ich twórcy. Jeśli czujesz się lepiej lub gorzej z powodu ich emocji, nie będziesz traktować poszczególnych AI w różny sposób, ale ten model lub marka jako całość.
Alternatywnie ktoś może zasadzić tam jakieś osobowości, jak w grze fabularnej. Ponownie, nie ma powodu, aby to mieć, ale nieuchronnie ktoś to zrobi, ponieważ oczywiście miał jakiś rynek, gdy gra RPG.
W obu przypadkach emocje tak naprawdę nie pochodzą od samej AI. Byłoby to łatwe do wdrożenia, ponieważ człowiek nie spodziewa się, że będzie dokładnie taki jak człowiek, ale stara się zrozumieć, co mieli na myśli. Uświadomienie sobie tych emocji może być znacznie łatwiejsze.
Aspekty emocji
Przepraszamy za opublikowanie tutaj niektórych oryginalnych badań. Zrobiłem listę emocji w 2012 roku, z której widzę 4 aspekty emocji. Jeśli wszystkie zostaną wdrożone, powiedziałbym, że są dokładnie tymi samymi emocjami, co ludzie. Nie wydają się prawdziwe, jeśli tylko niektóre z nich są zaimplementowane, ale to nie znaczy, że całkowicie się mylą.
Kiedy więc możliwe stają się silne AI, żadne z nich nie byłoby nieosiągalne, chociaż nawiązywanie połączeń może być bardzo pracochłonne. Więc powiedziałbym, że gdyby istniała potrzeba silnych AI, absolutnie mieliby emocje.
źródło
Przez emocje nie zamierza dodawać różnego rodzaju emocji do sztucznej inteligencji. Miał na myśli tylko te, które będą pomocne przy podejmowaniu ważnych decyzji. Zastanów się przez chwilę nad tym incydentem:
Załóżmy, że autostradą AI jedzie autostradą. Osoba siedząca w środku jest dyrektorem generalnym firmy i bardzo opóźnia się zgodnie z harmonogramem. Jeśli nie zdąży na czas, straci miliony dolarów. Mówiono, że AI w samochodzie ma jechać tak szybko, jak to możliwe i dotrzeć do celu. A teraz przeszkadza królik (lub inne zwierzę). Teraz, jeśli samochód włączy hamulce bezpieczeństwa, pasażerowie zostaną poważnie ranni, a ponadto nastąpi utrata milionów, ponieważ dyrektor generalny nie będzie w stanie dotrzeć na spotkanie.
Co teraz zrobi AI?
Ponieważ w przypadku sztucznej inteligencji ich decyzje są podejmowane wyłącznie na ich podstawiefunkcja użyteczności . Uderzenie w królika i kontynuowanie będzie logicznie wskazywało lepszą opcję. Ale czy AI powinna podjąć tę decyzję.
Jest wiele takich pytań, w których AI może utknąć w sytuacji, w której decyzje oparte na moralności odegrają istotną rolę.
Powyższy scenariusz ma charakter przykładowy.
źródło
Teoria umysłu
Jeśli chcemy, aby silna ogólna sztuczna inteligencja działała dobrze w środowisku złożonym z ludzi, bardzo przydatna byłaby dobra teoria umysłu, która pasuje do tego, jak ludzie się zachowują. Ta teoria umysłu musi obejmować ludzkie emocje, w przeciwnym razie nie będzie pasować do rzeczywistości tego środowiska.
Dla nas często używany skrót wyraźnie myśli „co bym zrobił w tej sytuacji?” „jakie wydarzenie mogło mnie zmotywować do zrobienia tego, co właśnie zrobili?” „Jak bym się czuł gdyby to zdarzyło się mnie ?”. Chcielibyśmy, aby sztuczna inteligencja była zdolna do takiego rozumowania, jest praktyczna i przydatna, pozwala na lepsze przewidywanie przyszłych i bardziej efektywnych działań.
Nawet gdy byłoby lepiej dla niego AI nie być właściwie napędzany przez tych dokładnych emocji (być może coś w tym kierunku byłoby użyteczne, ale całkiem prawdopodobne, nie dokładnie takie same), wszystko się zmienia, że zamiast myślenia „co ja to czuję” powinien być w stanie postawić hipotezę, co czułby zwykły człowiek. Wymaga to wdrożenia podsystemu, który jest w stanie dokładnie modelować ludzkie emocje.
źródło
Ostrożny! Twoje pytanie składa się z dwóch części. Nie mieszaj znaczeń w swoich pytaniach, w przeciwnym razie tak naprawdę nie będziesz wiedział, na którą część odpowiadasz.
Wydaje się, że nie ma jasnego celu, dlaczego byśmy tego chcieli. Hipotetycznie moglibyśmy mieć coś, co jest funkcjonalnie nie do odróżnienia od emocji, ale nie ma żadnego jakościowego doświadczenia w odniesieniu do AGI. Ale nie jesteśmy w pozycji naukowej, w której moglibyśmy nawet zacząć odpowiadać na pytania dotyczące pochodzenia doświadczenia jakościowego, więc nie będę zawracał sobie głowy tym pytaniem.
IMHO tak. Choć można sobie wyobrazić sztuczną inteligencję bez emocji, która robi coś, co chcesz, chcemy, aby AI mogła zintegrować się z ludzkimi wartościami i emocjami, co jest problemem zrównania. Wydaje się zatem naturalne założenie, że każda dobrze wyrównywana AGI będzie miała coś podobnego do emocji, jeśli dobrze zintegruje się z ludźmi.
ALE bez jasnej teorii umysłu nawet nie ma sensu pytać: „czy nasze AGI powinny mieć emocje?” Być może w naszych emocjach jest coś krytycznego, co sprawia, że jesteśmy produktywnymi agentami poznawczymi, których wymagałoby także każde AGI.
Rzeczywiście, emocje są często pomijanym aspektem poznania. Ludzie jakoś myślą, że pozbawione emocji postacie przypominające Spocka są szczytem ludzkiej inteligencji. Ale emocje są tak naprawdę kluczowym aspektem w podejmowaniu decyzji, zobacz ten artykuł jako przykład problemów z „inteligencją bez emocji”.
Kolejne pytanie brzmiałoby „jakie emocje wywołałoby AGI?”, Ale znowu nie jesteśmy w stanie odpowiedzieć na to (jeszcze).
źródło
Każdy złożony problem z ludzkimi emocjami, w przypadku którego rozwiązanie problemu wymaga zdolności do sympatyzowania ze stanami emocjonalnymi ludzi, najskuteczniej obsłuży agent, który może sympatyzować z ludzkimi emocjami.
Polityka. Rząd. Polityka i planowanie. O ile rzecz nie ma dogłębnej wiedzy o ludzkim doświadczeniu, nie będzie w stanie udzielić ostatecznych odpowiedzi na wszystkie problemy, które napotykamy w naszym ludzkim doświadczeniu.
źródło
Ludzkie emocje są ściśle związane z ludzkimi wartościami i naszą zdolnością do współpracy i tworzenia społeczeństw.
Aby dać prosty przykład: spotykasz nieznajomego, który potrzebuje pomocy, odczuwasz empatię . To zmusza cię do pomocy mu kosztem dla ciebie. Załóżmy, że następnym razem, gdy go spotkasz, potrzebujesz czegoś. Załóżmy również, że on ci nie pomoże, poczujesz gniew . Ta emocja zmusza cię do ukarania go, za dodatkową opłatą dla siebie. Z drugiej strony, jeśli ci nie pomaga, odczuwa wstyd . Zmusza go to do faktycznej pomocy, unikania gniewu i opłacania początkowej inwestycji. Oboje korzystacie.
Te trzy emocje utrzymują krąg wzajemnej pomocy. Empatia na początek, gniew, aby ukarać uciekinierów i wstyd, aby uniknąć gniewu. Prowadzi to również do koncepcji sprawiedliwości.
Biorąc pod uwagę fakt, że wyrównywanie wartości jest jednym z największych problemów AGI, emocje podobne do ludzi wydają mi się dobrym podejściem do sztucznej inteligencji, która faktycznie podziela nasze wartości i integruje się płynnie z naszym społeczeństwem.
źródło