Właśnie rozpocząłem zajęcia AI i Data Mining oraz książkę. Programowanie aplikacji AI zaczyna się od przeglądu historii AI. Pierwszy rozdział dotyczy historii AI od lat 40. XX wieku do chwili obecnej. Wystąpiło jedno szczególne stwierdzenie:
[W latach 60-tych] inżynierowie AI zawyżali przychody i nie dostarczali ...
Co było przyczyną nadmiernej pewności siebie? Czy to z powodu matematycznych modeli prognostycznych pokazujących, że przełom nastąpił tuż za rogiem, czy z powodu stale rosnącej możliwości sprzętowej, z której można skorzystać?
Odpowiedzi:
Moim osobistym zdaniem jest to spowodowane pychą . W latach 60. i 70. istniało kilka potężnych ego chodzących po korytarzach MIT, Stanford itp. Po prostu wiedzieli , że załamali ten problem. Dobrze.
Chociaż w tamtych czasach nie byłem częścią tego wszechświata, w połowie lat 80. pracowałem nad wyszukiwaniem podobieństw. Nasza praca początkowo opierała się na badaniach przeprowadzonych przez Gerarda Saltona w Cornell w latach 60. XX wieku, które wykorzystywały wektory atrybutów do reprezentowania dokumentów i zapytań. W rzeczywistości było to użyteczne podejście, ale kiedy sieci neuronowe stanęły w płomieniach (przynajmniej dopóki nie odkryły propagacji wstecznej ), włączono do nich pracę Saltona z powodu podobieństw (zamierzonych słów) do sieci neuronowych. Próbował zrobić coś innego, ale było kilka lat, w których był połączony z resztą.
Za każdym razem, gdy ktoś wymyśli rozwiązanie dla obecnego Brick Wall ™, bardzo się ekscytuje i ogłasza AI jako rozwiązany problem. Tyle że nie. Ponieważ za tym ceglanym murem jest inny. Cykl ten powtarza się w kółko i wciąż, i to nie tylko w AI. Mocno wierzę, że wszyscy przyszli informatycy i inżynierowie powinni być zobowiązani do wzięcia udziału w semestrze historii Historii Komputerów, ze szczególnym naciskiem na liczbę Next Big Things ™, które wzrosły jak rakiety ... a potem zrobiły bardzo duży krater w dnie doliny.
Dodatek: Weekend w Dzień Pracy spędziłem ze starym przyjacielem i trochę o tym rozmawialiśmy. Kontekst - zastanawianie się, co to znaczy, jak go reprezentować, a następnie jak go używać - okazał się być prawdopodobnie największą przeszkodą, którą należy usunąć. Im dłużej na to patrzysz, tym większa staje się przeszkoda. Ludzie są zdolni do niesamowitego, niemal natychmiastowego, częściowego dopasowywania „tego, co się dzieje”, do ogromnego zbioru „tego, co zdarzyło się wcześniej”, a następnie łączenia tej wiedzy z przeszłości z obecną sytuacją, aby stworzyć kontekst, w którym zrozumienie może prowadzić do działania. Na przykład możemy użyć go jako potężnego filtra „rzeczy, które możemy / nie możemy zignorować”, gdy świstamy w dół do klasy Waldo przy 60 MPH z ruchem 4 pasy od siebie i oddzielone tylko 3 lub 4 stopami (lub mniej!).
Na widmie
stuff > data > information > knowledge > understanding > judgement
Jesteśmy wciąż usiłując dostać się do etapów informacji / wiedzy, a nawet , że jest ograniczony do bardzo ograniczonych domenach dyskursu .źródło
Po prostu, masowo nie docenili skali problemu, szczególnie w przypadku eksplozji kombinatorycznej. Wiele rozwiązań AI działa dobrze dla „zabawkowych” próbek, ale zawodzi mocno, gdy skaluje się do problemów na poziomie ludzkim.
Prawdopodobnie byli też po prostu niedoświadczeni. Sztuczna inteligencja jako dziedzina została (względnie) dopiero wynaleziona pod względem praktycznych zastosowań, więc nikt nie miał znaczącego doświadczenia w stosowaniu teorii do czegokolwiek.
źródło
Mogę wymyślić kilka powodów.
Sztuczna inteligencja odniosła tak szybki sukces z niektórymi problemami związanymi z zabawkami rozwiązanymi na przełomie lat 50. i 60., które przeceniły to, co udało im się osiągnąć. ELIZA i SHRDLU oszołomili ludzi, mimo że są stosunkowo prostymi programami. Niestety, duża część tego, co sprawiło, że te programy były oszałamiające, była po prostu nowością. Dzisiaj nikt nie jest pod wrażeniem rozmowy z ELIZĄ, ale w tamtym czasie ludzie uważali, że jest ona prawie cudowna.
Ponadto, ponieważ problemy są „rozwiązywane” lub przynajmniej stają się możliwe do rozwiązania, ludzie nie uważają ich za sztuczną inteligencję. Optymalizacja kodu była kiedyś problemem AI. Nauka statystyczna przekształciła się w sztuczną inteligencję w jej własną specjalizację i wraz z nią rozpoznawała mowę. Gdy eksploracja danych stanie się głównym nurtem, utraci powiązanie z AI. Z czasem AI zapomina o swoich sukcesach i utknie, trzymając się nierozwiązywalnych i nierozwiązywalnych problemów, i ostatecznie wygląda jak flop.
źródło
Myślę, że ludzie w latach 60-tych wykorzystali własne ludzkie doświadczenia, aby podzielić problemy na „trudne problemy” i „łatwe problemy”: rzeczy takie jak wygrywanie w szachy, rozwiązywanie logicznych zagadek, rozwiązywanie równań matematycznych wydają się nam trudne dla ludzi. Rzeczy takie jak rozumienie języków naturalnych lub znajdowanie konturów obiektów na obrazie wydają się łatwe, ponieważ nasz mózg wykonuje całą pracę bez świadomego wysiłku. Kiedy próbujemy wyjaśnić, jak to robimy, wymyślamy proste wyjaśnienia, takie jak: „angielskie zdania zawsze mają strukturę podmiot-predykat-obiekt, w którym podmiot może być prostym terminem lub frazą ...” lub „Jestem szukanie krawędzi i łączenie ich z granicami obiektów ". Dziś wiemy, że rzeczy nie są takie proste, ale tylko dlatego, że wypróbowano wszystkie proste (i wiele nie tak prostych) rozwiązań
Poza tym ten błąd nie zaczął się w latach 60-tych: trwają wieki badań nad rozwiązaniem „trudnych problemów” (heurystyka, teoria gier, teoria decyzji, matematyka, logika itp.), Ale nie jestem pewien, czy ktokolwiek kiedykolwiek zadał sobie trud zbadania, w jaki sposób można analizować języki naturalne przed latami pięćdziesiątymi.
I nawet dzisiaj możesz regularnie znaleźć pytania na temat przepełnienia stosu, gdzie ludzie pytają, jak mogą parsować angielskie zdania, oszacować wiek osoby na obrazie, ocenić, czy obraz jest „bezpieczny do pracy” lub czy dwa obrazy pokazują to samo . Nie sądzę, że ludzie, którzy te pytania cierpią zbyt dużo pychy i arogancji: Problemy te tylko wydają się tak proste, to jest niewiarygodne, że to nie prosty algorytm, aby je rozwiązać.
źródło
Sztuczna inteligencja ma długą historię rozczarowań, ale myślę, że wielu krytyków zbyt często upraszcza to, co się stało, na przykład w twoim cytacie „inżynierowie z lat 60. zbyt zawyżeni i niedostarczeni”.
W latach 60. AI było domeną względnej garstki badaczy (dziedzina ta nie była jeszcze wystarczająco rozwinięta, aby nazwać ją inżynierią), głównie na uniwersytetach, a bardzo niewielu z nich było znakomitymi programistami.
Nagła dostępność maszyn komputerowych w latach 50. XX wieku doprowadziła do wielkich oczekiwań dotyczących automatyzacji, szczególnie w tłumaczeniu maszynowym języka naturalnego, grze w szachy i podobnych problemach. Być może znajdziesz pewne rzeczywiste prognozy sukcesu z tamtych dni, ale obietnice nieuchronnie nadeszły, ZANIM ktoś dogłębnie rozwiąże jeden z tych problemów. (Lub niesłusznie zakładali, że jeden sukces gwarantuje inny, na przykład spodziewając się, że będą mogli wdrożyć dobrą grę w szachy po tym, jak Samuel odniósł tak duży sukces w szachach ).
Uważaj też na wszelkie roszczenia dotyczące „powiedzieli”, „czuli”, „pomyśleli” itd .; opinie retrospektywne (takie jak ta!) są łatwe do rozpowszechnienia, podczas gdy udokumentowane dowody rzeczywistych prognoz „ekspertów” (tych, którzy faktycznie próbowali rozwiązać dany problem) mogą być znacznie trudniejsze do znalezienia.
Nadwyżka i niedostarczenie zawsze było objawem rozwoju oprogramowania, niezależnie od konkretnej dziedziny, w której programowanie jest stosowane. Główną trudnością związaną z AI jest to, że nietrywialne problemy przekraczają możliwości większości inżynierów. Na przykład, chociaż odpowiedź Charlesa E. Granta kategoryzuje ELIZA i SHRDLU jako „stosunkowo prostą”, powiedziałbym, że to prawda tylko w przypadku ELIZA (którą większość studentów pierwszego roku programowania mogłaby prawdopodobnie wdrożyć bez większych trudności). Z drugiej strony, SHRDLU to duży, niezwykle wyrafinowany program, który większość programistów miałaby bardzo trudno wymyślić, nie mówiąc już o jego wdrożeniu. Rzeczywiście, dwa zespoły studentów uniwersytetów nie mogły nawet w pełni uruchomić kodu źródłowego, a umiejętności podobne do SHRDLU są nadal trudne do znalezienia w dzisiejszych czasach, ponad 40 lat później.
Ponieważ sztuczna inteligencja jest prawdopodobnie jednym z najmniej zrozumiałych i najtrudniejszych problemów, w których można zastosować komputery, ogólnie rzecz biorąc, powiedziałbym, że postęp w sztucznej inteligencji był na ogół równy dla kursu. Nadal są wysokie oczekiwania , a nasza szybkość sprzętowa i możliwości znacznie wzrosły od lat 60., ale powiedziałbym, że umiejętności inżynierów i rozumienie sztucznej inteligencji nie poprawiają się tak bardzo, więc święty graal, jak zdanie testu Turinga, wciąż jest prawdopodobnie daleko, a nadmierne obietnice i niedostarczanie zapewne będą trwały jeszcze przez jakiś czas.
źródło
Myślę, że powodem była arogancja. Gdybym był inżynierem w latach 60. pracującym nad sztuczną inteligencją, sam byłbym dość arogancki.
Myślę, że aby osiągnąć wielkie rzeczy, trzeba sięgać po wielkie rzeczy. Zatem nadmierne promowanie nie musi być złą rzeczą, o ile nie przekroczysz limitu. Dzisiejsi naukowcy obiecują rzeczy, w które nie wierzę, że będą możliwe, ale jeśli nie sięgną po to, stracimy to, co zostanie osiągnięte.
źródło
Dotarcie gdzieś może być bardzo trudne, jeśli nie wiesz, dokąd zmierzasz.
Gdybyśmy mieli jakieś rozsądne wyjaśnienie, czym jest inteligencja i jak ona działa, być może mielibyśmy szansę skutecznie ją naśladować. Test Turinga jest fascynujący i użyteczny, ale prawdopodobnie nie wystarcza, aby pomóc nam w modelowaniu prawdziwej inteligencji. Z tego, co wiemy, „model” inteligencji może być niewystarczający dla prawdziwej inteligencji.
źródło
Powiedziałbym, że mniej więcej to samo dzieje się teraz z OWL. Rozejrzyj się i spróbuj narysować podobieństwa.
Brzmi dobrze na papierze, wydaje się działać dobrze w przypadku problemów z zabawkami, staje się niezwykle skomplikowany w przypadku większości rzeczywistych danych.
źródło
Oprócz podanych dobrych odpowiedzi, dwie uwagi:
Niektóre cytaty z tego dnia wydają się sugerować, że wielu badaczy myślało, że trywialne rozwiązania mogą być skalowane po zaprojektowaniu szybszych komputerów. W przypadku niektórych systemów uczenia się było to bardzo prawdziwe, ale myślę, że w odniesieniu do tego, o czym mówi PO, nie poprawiło się to na większą skalę.
Badacze w tym czasie mieli bardzo niską ocenę złożoności ludzkiego umysłu (koncentrują się na ideach takich jak test Turinga, idei, że ludzie używają tylko niewielkiego procentu swojego mózgu, itp.). AI na poziomie prostego zwierzęcia zostało osiągnięte za pomocą pewnych środków, gdy rzeczy się powiększyły, ale skok do AI na poziomie ludzkim był znacznie większy niż oczekiwano. Doprowadziło to niektórych naukowców do nauki systemów dziecięcych i innych symulacji opartych na wzroście / ewolucji jako próby wypełnienia tej luki.
źródło
Jednym z powodów był sukces, jaki mieliśmy WIĘCEJ w latach sześćdziesiątych. Właśnie wystartowaliśmy w kosmos i wkrótce wylądujemy na Księżycu. Właśnie odkryliśmy lekarstwa na polio i inne poważne choroby.
Ale „sztuczna inteligencja” była innym zwierzęciem niż problemy „inżynieryjne”, z jakimi się wtedy zmagaliśmy. Był to problem „rozumowania”, a nie „mechanicznego”.
Krótko mówiąc, AI (w latach 60.) był pomysłem „którego czas jeszcze nie nadszedł”. W kolejnych dziesięcioleciach wymagało to większego rozwoju, zanim stało się tak samo dostępne, jak inne problemy.
źródło
Innym powodem może być to, że opanowanie komputera / pisanie programów komputerowych daje małym maniakom kontroli poczucie wszechmocy - w rzeczywistości tworzy się małe wszechświaty, choć zamknięte.
To plus brak edukacji filozoficznej / epistemologicznej i naiwne zaufanie do prostych wyjaśnień, takich jak „inteligencja jest niczym innym…” może prowadzić do pychy.
źródło