Czy głębokie uczenie się zabija przetwarzanie obrazu / widzenie komputerowe?

52

Nie mogę się doczekać, aby zapisać się na magistra w dziedzinie przetwarzania sygnałów i obrazów, a może Computer Vision (jeszcze nie zdecydowałem), i pojawiło się to pytanie.

Obawiam się, że ponieważ głębokie uczenie się nie wymaga wyodrębniania funkcji i prawie żadnego wstępnego przetwarzania wejściowego, czy zabija przetwarzanie obrazu (lub ogólnie przetwarzanie sygnału)?

Nie jestem ekspertem w głębokim uczeniu się, ale wydaje się, że bardzo dobrze sprawdza się w zadaniach rozpoznawania i klasyfikacji, biorąc obrazy bezpośrednio zamiast wektora cech, podobnie jak inne techniki.

Czy jest jakikolwiek przypadek, w którym tradycyjne podejście do ekstrakcji i klasyfikacji cech byłoby lepsze przy wykorzystaniu technik przetwarzania obrazu, czy też umiera z powodu głębokiego uczenia się?

Tony
źródło
3
Ponownie to otworzyłem, ponieważ ma dużą liczbę głosów pozytywnych, a najczęściej głosowana odpowiedź ma bardzo dużą liczbę głosów pozytywnych.
Peter K.
1
@LaurentDuval Myślę, że każda odpowiedź była pomocna i bardzo interesująca, ale głównie twoje i matematyczne (wraz z dyskusją, która się pojawiła) naprawdę wyjaśniło ten temat.
Tony
2
W trwającej dyskusji chciałbym zrobić rozdroże. Kto powiedział, że głębokie uczenie się nie wymaga wyodrębnienia funkcji? Z własnego praktycznego doświadczenia nie powinniśmy szkolić DNN w zakresie surowych danych. Musimy dokonać ekstrakcji funkcji, a także posiadać podstawową wiedzę na temat obrazu. Głębokiego uczenia się należy używać ostrożnie, ale jest to również dobry pomysł.
arun raj

Odpowiedzi:

45

Ten post został bardzo zaktualizowany. Na górze możesz zobaczyć aktualizacje linków. Poniżej warianty wstępnej odpowiedzi. W przypadku krótkiej wersji: sukcesy splotowych sieci neuronowych i głębokiego uczenia się wyglądają jak rodzaj rewolucji galilejskiej. Z praktycznego punktu widzenia klasyczne przetwarzanie sygnału lub wizja komputerowa są martwe ... pod warunkiem, że masz wystarczającą ilość oznakowanych danych, nie przejmujesz się wyraźnymi błędami klasyfikacji ( głębokie wady ), masz nieskończoną energię do przeprowadzenia testów bez myślenia o śladzie węglowym , i nie zawracaj sobie głowy racjonalnymi wyjaśnieniami. W przypadku innych sprawiło to, że przemyśleć wszystko, co robiliśmy wcześniej: ekstrakcję funkcji, optymalizację (por. Mój kolega J.-C. Pesquet nad Deep Strukturami Sieci Neuronowych Rozwiązywanie Nierówności Wariacyjnych), niezmienność, kwantyfikacja itp. Z tego wynikają naprawdę interesujące badania, które, mam nadzieję, nadążają za mocno ugruntowanymi zasadami i podobnymi wynikami.

Zaktualizowane linki:

Przedstawiamy naturalne przykłady przeciwników - rzeczywiste, niezmodyfikowane i naturalnie występujące przykłady, które powodują znaczną degradację dokładności klasyfikatora. Wyszukujemy 7500 naturalnych przykładów przeciwników i publikujemy je w zestawie testowym klasyfikatora ImageNet, który nazywamy ImageNet-A. Ten zestaw danych służy jako nowy sposób pomiaru odporności klasyfikatora. Podobnie jak przykłady przeciwników l_p, przykłady ImageNet-A z powodzeniem przenoszą się do niewidzialnych lub czarnych skrzynek klasyfikujących. Na przykład w ImageNet-A DenseNet-121 uzyskuje około 2% dokładności, spadek dokładności około 90%. Odzyskanie tej dokładności nie jest proste, ponieważ przykłady ImageNet-A wykorzystują głębokie wady obecnych klasyfikatorów, w tym nadmierną zależność od kolorów, tekstur i wskazówek tła. Obserwujemy, że popularne techniki treningowe mające na celu poprawę odporności mają niewielki wpływ, ale pokazujemy, że niektóre zmiany architektoniczne mogą zwiększyć odporność na naturalne przykłady przeciwników. Konieczne są dalsze badania, aby umożliwić solidne uogólnienie tego twardego zestawu testowego ImageNet.

  • 2019/05/03: Głębokie uczenie się: ostatnia granica przetwarzania sygnałów i analizy szeregów czasowych? „W tym artykule chcę pokazać kilka obszarów, w których sygnały lub szeregi czasowe są niezbędne”
  • 2018/04/23: Właśnie wróciłem z corocznej międzynarodowej konferencji na temat akustyki, przetwarzania mowy i sygnałów, ICASSP 2018 . Byłem zdumiony ilością artykułów, które w pewnym stopniu opierają się na głębokim uczeniu się, głębokich sieciach itp. Dwa z czterech plebaniów (Alex Acero i Yann LeCun) poświęcone były temu tematowi. Jednocześnie większość badaczy, których spotkałam, żartowała sobie z tego powodu („Przepraszam, mój plakat jest na bankach filtrów, a nie na głębokim uczeniu się”, „Nie interesuje mnie to, mam małe zbiory danych”) lub zastanawiałem się nad uzyskaniem 0,5% na wielkie wyzwania i utratą zainteresowania modelowaniem fizyki lub statystycznych priorytetów.
  • 2018/01/14: Czy Deep Net See A Cat? , od „abstrakcyjnego kota”, po „najlepszego kota” odwróconego, narysowanego itp. i jakoś zaskakujące wyniki na szkicach
  • 2017/11/02: dodano odniesienia do rozpraszania transformacji / sieci
  • 2017/10/21: Przegląd splotowych sieci neuronowych dla odwrotnych problemów w obrazowaniu
  • Dogłębne uczenie się i jego zastosowania w przetwarzaniu sygnałów i informacji , IEEE Signal Processing Magazine, styczeń 2011 r

Informacje na temat głębokiego uczenia „krokowe” w standardowym przetwarzaniu sygnału / obrazu można znaleźć na dole. Michael Elad właśnie napisał Deep, Deep Trouble: Wpływ głębokiego uczenia się na przetwarzanie obrazu, matematykę i ludzkość (SIAM News, 2017/05), fragment:

Potem sieci neuronowe nagle wróciły z zemstą.

Ta trybuna jest interesująca, ponieważ pokazuje przejście od tradycyjnego „przetwarzania obrazu”, próbującego modelować / rozumieć dane, do dziedziny poprawności, bez tak dużego wglądu.

Ta domena ewoluuje dość szybko. Nie oznacza to, że ewoluuje w jakimś zamierzonym lub stałym kierunku. Ani dobrze, ani źle. Ale dziś rano usłyszałem następujące powiedzenie (czy to żart?):

zły algorytm z ogromnym zestawem danych może działać lepiej niż inteligentny algorytm z danymi pauce .

Oto moja bardzo krótka próba: głębokie uczenie się może zapewnić najnowocześniejsze wyniki, ale nie zawsze rozumie się dlaczego , a część naszej pracy naukowej polega na wyjaśnianiu, dlaczego rzeczy działają, jaka jest zawartość danych itd.

Dogłębne uczenie się wymaga (ogromnych) dobrze oznakowanych baz danych. Za każdym razem, gdy tworzysz obrazy na pojedynczych lub pojedynczych obrazach (tj. Bez ogromnej bazy danych z tyłu), szczególnie w miejscach, w których mało prawdopodobne jest uzyskanie „bezpłatnych oznaczonych obrazów użytkownika” (w uzupełniającym zestawie zestawu „ śmieszne koty grające w gry i twarze ”) , możesz trzymać się tradycyjnego przetwarzania obrazu przez pewien czas i dla zysku. Ostatni tweet podsumowuje, że:

(wiele) oznaczonych danych (bez brakujących zmiennych) stanowi przełom (i jest niepotrzebny) w wielu domenach

Jeśli zostaną zabici (co wątpię w krótkim terminie), jeszcze nie umarli. Tak więc wszelkie umiejętności zdobyte w przetwarzaniu sygnału, analizie obrazu i wizji komputerowej pomogą ci w przyszłości. Jest to na przykład omówione w poście na blogu: Czy zapomnieliśmy o geometrii w wizji komputerowej? autor: Alex Kendall:

Głębokie uczenie się zrewolucjonizowało wizję komputerową. Obecnie nie ma wielu problemów, w których najskuteczniejsze rozwiązanie nie jest oparte na kompleksowym modelu głębokiego uczenia się. W szczególności sieci neuronowe zwojowe są popularne, ponieważ zwykle działają dość dobrze po wyjęciu z pudełka. Jednak te modele są w dużej mierze dużymi czarnymi skrzynkami. Jest wiele rzeczy, których o nich nie rozumiemy.

Konkretnym przykładem może być: kilka bardzo ciemnych (np. Z nadzoru) obrazów z tej samej lokalizacji, wymagających oceny, czy jeden z nich zawiera konkretną zmianę, którą należy wykryć, jest potencjalnie kwestią tradycyjnego przetwarzania obrazu, więcej niż Głębokie uczenie się (na dzień dzisiejszy).

Z drugiej strony, tak samo jak Deep Learning na dużą skalę, może prowadzić do błędnej klasyfikacji małych zestawów danych, co może być nieszkodliwe „średnio” dla niektórych aplikacji. Dwa obrazy, które nieznacznie różnią się od ludzkiego oka, można sklasyfikować inaczej poprzez DL. Lub losowe obrazy można ustawić na określoną klasę. Zobacz na przykład Głębokie sieci neuronowe można łatwo oszukać: Prognozy o wysokim poziomie ufności dla nierozpoznawalnych obrazów (Nguyen A, Yosinski J, Clune J. Proc. Computer Vision and Pattern Recognition 2015) lub Czy głębokie uczenie ma głębokie wady? , w przypadku negatywnych negatywów:

Sieć może źle sklasyfikować obraz po tym, jak naukowcy zastosowali pewną niedostrzegalną perturbację. Zaburzenia można znaleźć, dostosowując wartości pikseli, aby zmaksymalizować błąd prognozowania.

Z całym szacunkiem dla „głębokiego uczenia się”, pomyśl o „masowej produkcji odpowiadającej zarejestrowanemu, znanemu, masowo uzasadnionemu lub spodziewanemu zachowaniu” w porównaniu z „pojedynczym dziełem”. Żadna nie jest lepsza (jeszcze) w jednej skali indeksu. Oba mogą przez jakiś czas współistnieć.

Jednak głębokie uczenie się przenika wiele nowych dziedzin, jak opisano w odnośnikach poniżej.

Na szczęście niektórzy ludzie próbują znaleźć matematyczne uzasadnienie głębokiego uczenia się, czego przykładem są sieci rozproszone lub transformacje zaproponowane przez Stéphane Mallata i współautorów, patrz strona ENS dotycząca rozpraszania . Analiza harmoniczna i operatory nieliniowe, funkcje Lipschitza, niezmienność translacji / rotacji, lepsze dla przeciętnego przetwarzającego sygnał. Zobacz na przykład Understanding Deep Convolutional Networks .

Laurent Duval
źródło
1
Zwiększanie niewystarczających danych treningowych za pomocą odpowiednio zmodyfikowanych kopii pomaga w głębokim uczeniu się w uogólnieniu. Ostatnio pojawiły się sposoby wokół konieczności pełnego nadzorowanego znakowania: nieobsługiwane powiększanie danych automatycznie generuje etykiety dla nieoznaczonej części danych szkoleniowych w częściowo nadzorowanym uczeniu się i wykorzystuje te dane do szkolenia. (Zachęcamy do włączenia tej lub podobnej informacji do odpowiedzi.)
Olli Niemitalo
1
Jeśli wiesz, jak „konsekwentnie” zwiększać. OK, jeśli chodzi o klasyczne zbiory danych, wciąż chodzę po danych naukowych, którymi się zajmę (geologia, chemia)
Laurent Duval
@Laurent, o tym, co powiedziałeś: „nasza praca naukowców polega na wyjaśnianiu, dlaczego wszystko działa” : brzmi jak nauka danych to ważna kariera dla każdego, kto rozważa poważną pracę nad DSP. Czy są jakieś inne nazwy poza typowym tytułem „inżynier DSP”, o którym słyszałeś?
JFonseca
21

Po pierwsze, nie ma nic złego w pracy gradowej w przetwarzaniu obrazu lub wizji komputerowej i korzystaniu z głębokiego uczenia się. Głębokie uczenie się nie zabija przetwarzania obrazu i wizji komputerowej, jest jedynie aktualnym tematem badań w tych dziedzinach.

Po drugie, głębokie uczenie się wykorzystywane jest przede wszystkim w rozpoznawaniu kategorii obiektów. Ale to tylko jeden z wielu obszarów widzenia komputerowego. Istnieją inne obszary, takie jak wykrywanie obiektów, śledzenie, rekonstrukcja 3D itp., Z których wiele wciąż opiera się na „ręcznie wykonanych” funkcjach.

Dima
źródło
5
Bądź ostrożny: DNN są w stanie wykonać wszystkie te, o których wspomniałeś: wykrywanie obiektów, śledzenie, rekonstrukcja 3D itp. To powiedziawszy, przetwarzanie sygnału jest wglądem w fizyczne aspekty manipulacji sygnałami i dlaczego powinniśmy manipuluj nimi w jakiś sposób - a ci (jak sądzę) powrócą, aby wyjaśnić, dlaczego działają algorytmy adaptacyjne, takie jak DNN. Ale nie pomylcie się - DNN są bardzo dobrze zdolne do bazowej transformacji od wejścia, aż do (zróżnicowanego) celu docelowego.
Tarin Ziyaee
11

Żadna głęboka nauka nie zabija przetwarzania obrazu. Aby przeprowadzić głębokie uczenie się, potrzebujesz ogromnych zestawów danych i wielu zasobów obliczeniowych. Istnieje wiele aplikacji, w których pożądana jest możliwość przetwarzania obrazu przy mniejszym obciążeniu obliczeniowym i mniejszych rozmiarach pamięci i bez dostępu do ogromnych baz danych. Niektóre przykłady to telefony komórkowe, tablety, aparaty mobilne, samochody, quadkoptery. Głębokie uczenie się jest obecnie bardzo popularne, ponieważ istnieją bardzo imponujące wyniki klasyfikacji.

Klasyfikacja jest jednym z wielu problemów, z którymi zajmuje się Przetwarzanie obrazu, więc nawet gdyby prawdą było, że głębokie uczenie się rozwiązałoby wszystkie problemy z klasyfikacją, pozostałoby wiele innych rodzajów Przetwarzania obrazu. Redukcja szumów, rejestracja obrazu, obliczenia ruchu, morfowanie / mieszanie, wyostrzanie, korekty i transformacje optyczne, obliczanie geometrii, szacowanie 3D, modele ruchu 3D + w czasie, widzenie stereo, kompresja i kodowanie danych, segmentacja, usuwanie zadziorów, stabilizacja ruchu, grafika komputerowa, wszystkie rodzaje renderowania.

matematyk
źródło
Odszumianie, szacowanie 3D itp., Wszystkie te, o których wspomniałeś, są bardzo zbliżone i rozwiązane przez DNN o odpowiedniej architekturze i odpowiednich danych.
Tarin Ziyaee
1
Tak, tak i możesz robić cotygodniowe zakupy w Jaguar (ale nie dlatego są zbudowane).
mathreadler
1
Hehe, prawda - ale to coś innego niż stwierdzenie, że nie możesz robić zakupów za pomocą jaguara.
Tarin Ziyaee
Łatwo jest nałożyć użyteczne ograniczenia na problem inżynieryjny, z którym DNN raczej nie podoba się. Na przykład ograniczenie, że zastosowana metoda nie powinna być stronnicza w stosunku do określonego zestawu danych wejściowych. Wtedy DNN będą oczywiście domyślnie zdyskwalifikowane, ponieważ wszyscy potrzebują szkolenia, a zatem będą stronnicze przy użyciu danych treningowych.
mathreadler
Dotyczy to każdego narzędzia inżynieryjnego: Ale nie o to chodzi. Chodzi o to, że wszystkie te zadania, o których wspomniałeś powyżej, w rzeczywistości bardzo dobrze można rozwiązać za pomocą DNN. Tak, niektóre są nowszymi rozwiązaniami, ale błędne jest twierdzenie, że nie można ich rozwiązać za pomocą DNN! To wszystko!
Tarin Ziyaee,
11

Dzisiaj rozmawialiśmy z moim przyjacielem. Tu w Monachium był deszczowy dzień, podczas gdy duża część Europy miała rodzaj słonecznej atmosfery. Ludzie dzielili się zdjęciami w mediach społecznościowych, gdzie byli w ładnych letnich sukienkach, wędrując po morzach. Była zirytowana tą sytuacją, zwróciła się do mnie i zapytała: „Czy możesz napisać oprogramowanie do blokowania zdjęć w mediach społecznościowych, które zawierają tak urocze zdjęcia lata, kiedy jest tu tak źle?”. Powiedziałem, dlaczego nie. Wszystko, co musisz zrobić, to zebrać ogromny zestaw letnich zdjęć i negatywnych przykładów, przesłać je przez sieć, która dokonuje klasyfikacji binarnej na poziomie „Block” lub „No-block”. Trenuj i dostrajaj sieć. Otóż ​​to.

Potem zwróciłem się do siebie: czy rzeczywiście wiem, jak napisać prosty algorytm, aby zdecydować, czy jest ładna pogoda, czy nie, nie pozwalając, by maszyna myślała za mnie? Ledwo ... Może ... Dla ciekawskiego czytelnika oto kilka funkcji, które możesz chcieć zaprojektować, jeśli spróbujesz po niego:

Dwuklasowa klasyfikacja pogodowa , Cewu Lu§ Di Lin, Jiaya Jia, Chi-Keung Tang , CVPR 2014

Oczywiście, w dzisiejszych czasach nie przejmowałbym się nawet tą publikacją CVPR i po prostu sięgam głęboko. Tak więc, jak bardzo podoba mi się głębokie uczenie się ze względu na jego solidne działanie w wielu scenariuszach, używam go również ostrożnie. Nawet jeśli nie zabiłoby to mojej wiedzy na temat przetwarzania obrazu, zwykle zmniejsza wymaganą przeze mnie wiedzę specjalistyczną w tej dziedzinie. Pod względem intelektualnym nie jest to zbyt eleganckie.

Gdy tylko osoba postanowi utrzymać się na drodze i będzie czerpać korzyści z obu światów, będzie po bezpiecznej stronie.

Tolga Birdal
źródło
7

Krótka odpowiedź brzmi: nie. DL rozpoznaje kubek na zdjęciu, ale to i tak nie zabija przetwarzania sygnału. To powiedziawszy, twoje pytanie jest dość aktualne w tych niespokojnych dniach. Jest ładny panel dyskusyjny na ten temat, wyposażony Stephane Mallat itd tutaj .

dohmatob
źródło
5

Inżynieria danych jest nadal wykorzystywana w uczeniu maszynowym do wstępnego przetwarzania i wyboru danych dostarczanych do DNN w celu poprawy ich czasu uczenia się i wydajności oceny. Przetwarzanie obrazu (materiał między matrycą aparatu a bitmapami RGB / itp. Podawanymi do DNN), nadal jest formą inżynierii danych.

hotpaw2
źródło
4

Dogłębne zrozumienie przetwarzania sygnałów (wraz z algebrą liniową, rachunkiem wektorowym, statystyką matematyczną itp.) Jest nieodzowne dla nietrywialnych prac w dziedzinie głębokiego uczenia się, szczególnie w dziedzinie widzenia komputerowego.

Niektóre dokumenty o dużym wpływie w głębokim uczeniu się (teraz, gdy większość nisko wiszących owoców została zebrana) wskazują na dobre zrozumienie koncepcji przetwarzania sygnałów.

Kilka motywacyjnych koncepcji:

  • Rozwinięte zwoje : sprawdź ten post na blogu . Jednym z pierwszych równań byłby chleb powszedni dla osoby dobrze ugruntowanej (hah) w koncepcjach przetwarzania sygnałów. Jest również ściśle związany z algorytmem Trous znalezionym w klasycznym przetwarzaniu sygnału falkowego .
  • Transponowane warstwy splotowe / warstwy Deconv. Ponownie, podstawowe koncepcje przetwarzania sygnałów.
  • Kształtowanie filtrów konwekcyjnych - potrzebny jest dobry pomysł na normy operatora i mapowanie skurczów. Zazwyczaj można to znaleźć na kursie EE w teorii sygnałów lub systemach sterowania lub w kursach matematycznych z analizy (rzeczywistej lub funkcjonalnej).
  • Przykłady przeciwne : jeden z pierwszych artykułów, który to zbadał ( „Intrygujące właściwości ...” ) sformalizował to pod względem perturbacji i zastosował stałe Lipschitza różnych warstw i nieliniowości w sieci neuronowej w celu ograniczenia wrażliwości na takie zaburzenia. Zgadzam się, analiza była bardzo wstępna, ale ponownie uważam, że dowodzi to, że dokonywanie nietrywialnych postępów we wszystkim, w tym głębokie uczenie się, wymaga nietrywialnego zrozumienia teorii.

I tak dalej. Tak więc, nawet jeśli skończysz pracę na wizji komputerowej i stosowanie głębokiego uczenia się do swoich problemów, tło przetwarzania sygnału sprawi, że bardzo łatwo będzie ci się uchwycić.

AruniRC
źródło
1
Tak. Jakikolwiek skrót zastosowany, aby nie musiał się uczyć, co należy przesłać do sieci, będzie musiał nauczyć się na własnej skórze przez gorszą wydajność.
mathreadler
4

Naprawdę nie przetwarzam zbyt wiele obrazów, ale pracowałem dla organizacji (US Navy), która zrobiła i sfinansowała badania w klasyfikacji sygnałów, kiedy sieci neuronowe były gorącym tematem, od połowy lat 80-tych. Musiałem zapoznać się z wieloma rzeczami marketingowymi. Argumenty były następujące:

  • Jest neuronowy, podobnie jak mózg, a ponieważ przewyższał liniowy klasyfikator, pokonuje techniki statystyczne. Znam niektórych ludzi, którzy odrzucili swoje dokumenty, ponieważ używali statystyk do oceny wydajności.
  • Sieci neuronowe są indukcyjne, mogą poprawnie klasyfikować rzeczy, jeśli w ich zestawach treningowych nie było żadnego lub kilku przykładów.
  • DARPA finansuje prace i wszyscy wiemy, że wszystko, co robi DARPA, jest zwycięzcą. (Google jeszcze nie było w pobliżu)
  • Wydajność nie jest cudowna, nie potrzebuje macierzy pomieszania, nie potrzebuje priorytetów klas, mogę tylko powiedzieć, jakie jest moje prawdopodobieństwo błędu. Nie potrzebuję granic, po prostu wykonam losowanie i przekwalifikuję.
  • Wybierz niektóre funkcje i skorzystaj z niego, to czarna skrzynka, skalowanie, wyrównanie danych, odrzucanie bałaganu, złe etykiety, występowanie wielu klas, nie mój problem.
  • Mgła matematyki, maszyny Boltzmanna
  • Dodajmy SVD, a może coś fraktalnego.
  • Nadzorowana / nienadzorowana przynęta i przełącznik, znajdę wszystkie twoje ukryte wzory. Czy ta pamięć asocjacyjna nie jest głęboka?

Książka Bishopa stłumiła mój cynizm.

W więcej niż kilku aplikacjach optymalny algorytm przetwarzania sygnału będzie wymagał wyczerpującego przeszukiwania wyliczeń w dużej przestrzeni parametrów, która szybko staje się trudna do rozwiązania. Duża farma serwerów może zwiększyć dostępną przestrzeń wyszukiwania, ale w pewnym momencie musisz znaleźć heurystykę. DL wydaje się być w stanie znaleźć niektóre z tych heurystyk, ale nie rozwiązuje podstawowej twardej optymalizacji NP.

Stanley Pawlukiewicz
źródło
Masz całkowitą rację, tłumiąc cynizm, ponieważ zdaje się, że obciąża on wielu ludzi. Czasami żałuję, że nie nauczyłem się tego wcześniej.
mathreadler
3

Moim zdaniem z uniwersytetu wielu ludzi przetwarzających sygnał było nieco wrogo nastawionych do ML, podejrzewam, ponieważ czuli się zagrożeni, że wkracza na ich domenę. Ale ostatnio przeprowadzono wiele badań nad korzyściami płynącymi ze stosowania głęboko cenionych sieci neuronowych o złożonej wartości, co może sugerować, że złoty bilet naprawdę dobrze rozumie obie dyscypliny.

Austin
źródło
1
Tak. Przetwarzanie sygnału jest bardzo ściśle związane z uczeniem maszynowym. Dobre zrozumienie przetwarzania sygnałów pomaga zrozumieć, jak budować i używać algorytmów ML oraz jakiego rodzaju dane są (nie) odpowiednie do ich zasilania.
matreadler
2

No tak. W taki sam sposób, jak rozwój w językach programowania wyższego poziomu, takich jak C ++ i Python, „zabił” programowanie asemblacyjne. Nie oznacza to jednak, że nie ma znaczenia, aby uczyć się montażu, gdy zapisujesz się na kurs CS. Zapewnia świetny wgląd w działanie komputera, co dzieje się za kulisami języków wyższego poziomu, jakie są podstawowe zasady języka komputerowego itp. Ale nikt przy zdrowych zmysłach nie programowałby teraz aplikacji komputerowej w asemblerze.

Jochemspek
źródło