W dzisiejszych czasach sztuczna inteligencja wydaje się niemal równa uczeniu maszynowemu, zwłaszcza głębokiemu uczeniu się. Niektórzy twierdzą, że głębokie uczenie się zastąpi w tej dziedzinie ludzkich ekspertów, tradycyjnie bardzo ważnych w inżynierii obiektów. Mówi się, że dwa przełomy stały się podstawą głębokiego uczenia się: z jednej strony neurobiologia i neuroplastycznośćw szczególności mówi nam, że podobnie jak ludzki mózg, który jest wysoce plastyczny, sztuczne sieci można wykorzystać do modelowania prawie wszystkich funkcji; z drugiej strony wzrost mocy obliczeniowej, w szczególności wprowadzenie GPU i FPGA, wspaniale poprawił inteligencję algorytmiczną i sprawił, że modele stworzone dekady temu były niezwykle potężne i wszechstronne. Dodam, że duże zbiory danych (głównie dane oznaczone) zgromadzone w ciągu ostatnich lat są również istotne.
Takie zmiany wprowadzają wizję komputerową (i rozpoznawanie głosu) w nową erę, ale w przetwarzaniu języka naturalnego i systemach eksperckich sytuacja nie zmieniła się zbytnio.
Osiągnięcie zdrowego rozsądku dla sieci neuronowych wydaje się wysokim porządkiem, ale większość zdań, rozmów i krótkich tekstów zawiera wnioski, które należy wyciągnąć z wiedzy świata w tle. Grafowanie wiedzy ma zatem ogromne znaczenie dla sztucznej inteligencji. Sieci neuronowe można wykorzystać do budowania baz wiedzy, ale wydaje się, że modele sieci neuronowych mają trudności z wykorzystaniem tych skonstruowanych baz wiedzy.
Moje pytania to:
Czy baza wiedzy (na przykład „wykres wiedzy” opracowany przez Google) jest obiecującą gałęzią sztucznej inteligencji? Jeśli tak, to w jaki sposób KB może wzmocnić uczenie maszynowe? Jak możemy włączyć dyskretne zmienne ukryte do NLU i NLG?
Gdzie jest kierunek przetrwania w epoce zdominowanej przez DL? Czy dynamiczna baza wiedzy przypominająca Wolfram jest nowym kierunkiem? Lub jakieś nowe kierunki?
Czy brakuje mi czegoś fundamentalnego lub pomysłów dotyczących tych problemów?
źródło
Odpowiedzi:
Przede wszystkim chciałbym zwrócić uwagę na główne różnice między bazą wiedzy a (głębokim) uczeniem maszynowym, szczególnie gdy główny nacisk kładziony jest na „AI”, a nie „Data Science”:
NN są jak czarna skrzynka; Nawet jeśli nauczą się zestawu danych i zyskają moc generalizacji w dziedzinie problematycznej, nigdy nie dowiesz się, jak działają. jeśli przyjrzysz się szczegółom opracowanego modelu, zobaczysz tylko cyfry, wagi, słabe i silne połączenia oraz funkcje transformacji. krok „wyodrębnianie funkcji” przed fazą szkolenia dosłownie mówi: „hej człowieku, wystarczy w skomplikowanym świecie, zacznijmy od zer i jedynek”. W przypadku DL jest gorzej! nawet nie widzimy, jakie są wybrane i skuteczne funkcje. Nie jestem ekspertem od DL, ale o ile wiem, czarna skrzynka DL jest ciemniejsza! Ale bazy wiedzy są napisane przyjaznym dla człowieka językiem. po fazie akumulacji wiedzy można było zobaczyć wszystkie połączenia między istotami, a co ważniejsze, możesz zinterpretować te połączenia. jeśli przecinasz drut w bazie wiedzy, Twój model straci trochę mocy i wiesz, co dokładnie straci; na przykład odłączenie węzła „Plutona” od węzła „układu słonecznego” powie Twojemu modelowi, co powiedział nam deGrasse Tyson. ale w modelu ML może to zmienić go w całkowicie bezużyteczny: co stanie się, jeśli manipulujesz połączeniem między neuronem o numerze 14 i 47 w modelu NN używanym do przewidywania, które planety należą do Układu Słonecznego ?!
Modele ML są jedynie zapisem danych. Nie mają mocy wnioskowania i nie dają wam żadnej. z drugiej strony baza wiedzy jest w stanie wnioskować z wcześniejszej wiedzy, jak wskazałeś w swoim pytaniu. Pokazano, że modele DL, które zostały przeszkolone z danymi powiedzmy o klasyfikacji obrazów, można również zastosować do problemu wykrywania głosu. Ale to nie znaczy, że modele DL mogą zastosować swoją wcześniejszą wiedzę w dziedzinie obrazów w dziedzinie głosów.
Potrzebujesz kilogramów danych dla tradycyjnych algorytmów ML i ton danych dla algorytmów DL. ale pojedyncze wystąpienie zestawu danych stworzy dla Ciebie znaczącą bazę wiedzy.
W NLP istnieją dwa główne tematy badawcze: tłumaczenie maszynowe i odpowiadanie na pytania. Praktycznie zostało wykazane, że DL działa znacząco z problemami z tłumaczeniem maszynowym, ale działa głupio, jeśli chodzi o odpowiadanie na wyzwania, szczególnie gdy zakres tematów poruszanych w rozmowie człowiek-maszyna jest szeroki. Bazy wiedzy nie są dobrym wyborem do tłumaczenia maszynowego, ale prawdopodobnie są kluczem do szlachetnego urządzenia odpowiadającego na pytania. Ponieważ w tłumaczeniu maszynowym liczy się tylko przetłumaczona wersja tekstu (i nie obchodzi mnie, w jaki sposób maszyna to zrobiła, o ile jest to prawdą), ale jeśli chodzi o problem z odpowiedzią, nie potrzebuję papugi, która powtarza te same informacje, które mu podałem, ale inteligentne stworzenie, które daje mi „jabłko można zjeść” po tym, jak mu powiem „jabłko jest owocem” i „
źródło