Słuchałem wykładu panelu złożonego z dwóch wpływowych chińskich naukowców: Wang Gang i Yu Kai i innych.
Zapytany o największe wąskie gardło rozwoju sztucznej inteligencji w najbliższej przyszłości (od 3 do 5 lat), Yu Kai, który ma doświadczenie w branży sprzętu komputerowego, powiedział, że sprzęt będzie podstawowym problemem i powinniśmy zapłacić większość nasza uwaga na to. Podał nam dwa przykłady:
- Na wczesnym etapie rozwoju komputera porównujemy nasze maszyny pod względem układów;
- Sztuczna inteligencja, która jest bardzo popularna w tych latach, byłaby prawie niemożliwa, gdyby nie została wzmocniona przez procesor graficzny Nvidii.
Podstawowe algorytmy istniały już w latach 80. i 90. XX wieku, ale sztuczna inteligencja przeszła przez 3 zimy AI i nie była empiryczna, dopóki nie można było trenować modeli z mega serwerami wzmocnionymi GPU.
Następnie dr Wang skomentował swoje opinie, że powinniśmy również opracować systemy oprogramowania, ponieważ nie możemy zbudować automatycznego samochodu, nawet jeśli połączyliśmy wszystkie procesory graficzne i obliczenia na świecie.
Potem, jak zwykle, mój umysł odszedł i pomyślałem, że co, jeśli ci, którzy potrafią obsługiwać superkomputery w latach 80. i 90. wykorzystali istniejące wówczas algorytmy sieci neuronowej i wyszkolili je z tonami danych naukowych? Niektóre osoby w tym czasie mogą oczywiście próbować zbudować systemy AI, które budujemy teraz. Ale dlaczego sztuczna inteligencja stała się gorącym tematem i stała się empiryczna dopiero po kilkudziesięciu latach? Czy to tylko kwestia sprzętu, oprogramowania i danych?
źródło
Odpowiedzi:
Rozwój branży sztucznej inteligencji ma wiele czynników. Wiele osób tęskni jednak za boomem głównie w części AI dotyczącej uczenia maszynowego. Można to przypisać różnym prostym przyczynom wraz z ich porównaniami we wcześniejszych czasach:
Innym ważnym aspektem jest to, że obecnie każdy ma dostęp do potężnych komputerów. W ten sposób każdy może budować nowe modele ML, ponownie trenować istniejące modele, modyfikować modele itp. Nie było to wcześniej możliwe,
Wszystkie te czynniki doprowadziły do ogromnego wzrostu zainteresowania ML i spowodowały boom, który obserwujemy dzisiaj. Sprawdź także to pytanie, w jaki sposób wychodzimy poza procesory cyfrowe.
źródło
Procesory graficzne były idealne do boomu AI
Sztuczna inteligencja była badana przez długi czas. Prawie pół wieku. Było to jednak zbadanie, jak algorytmy mogłyby działać i wyglądać. Kiedy NV zobaczyło, że sztuczna inteligencja wkrótce wejdzie do głównego nurtu, spojrzeli na swoje układy GPU i zdali sobie sprawę, że ogromna moc przetwarzania parellel, przy względnej łatwości programowania, jest idealna w obecnej epoce. Wiele innych osób również to zauważyło.
GPGPU to koncepcja wykorzystania równoległego przetwarzania GPU do ogólnych zadań. Możesz przyspieszyć grafikę lub sprawić, by Twój algorytm wykorzystał tysiące rdzeni dostępnych na GPU. To sprawia, że GPU jest niesamowitym celem dla wszystkich rodzajów zastosowań, w tym AI. Ponieważ są już dostępne i nie są zbyt trudne do zaprogramowania, jest to idealny wybór do przyspieszania algorytmów AI.
źródło