Czy masz globalną wizję tych technik analizy?

24

Obecnie pracuję nad projektem, w którym zasadniczo potrzebuję, podobnie jak wszyscy, aby zrozumieć, w jaki sposób wyjście jest powiązane z wejściem . Szczególną cechą jest to, że dane są mi przekazywane pojedynczo, dlatego chcę aktualizować swoją analizę za każdym razem, gdy otrzymuję nowy . Wierzę, że nazywa się to przetwarzaniem „on-line”, w przeciwieństwie do przetwarzania „wsadowego”, w którym masz wszystkie potrzebne dane i wykonujesz obliczenia, używając wszystkich danych jednocześnie.x ( y , x ) ( y , x )yx(y,x)(y,x)

Rozejrzałem się za pomysłami i wreszcie doszedłem do wniosku, że świat jest podzielony na trzy części:

  • Pierwsza część to kraina statystyki i ekonometrii. Ludzie tam robią OLS, GLS, zmienne instrumentów, ARIMA, testy, różnice różnic, PCA i tak dalej. Ziemia ta jest w większości zdominowana przez liniowość i zajmuje się tylko przetwarzaniem „wsadowym”.

  • Druga część to wyspa uczenia maszynowego i innych słów, takich jak sztuczna inteligencja, nadzorowane i bez nadzoru uczenie się, sieci neuronowe i maszyny SVM. Tutaj odbywa się przetwarzanie zarówno „wsadowy”, jak i „on-line”.

  • Trzecia część to cały kontynent, który właśnie odkryłem, w większości zamieszkany przez inżynierów elektryków, jak się wydaje. Tam ludzie często dodać słowo „filtr” do swoich narzędzi, a oni wynaleźli wielkie spożywczych takich jak algorytm Widrow'a-Hoff, rekurencyjnych najmniejszych kwadratów , z filtra Wienera , do filtru Kalmana i prawdopodobnie innych rzeczy jeszcze nie odkrytych. Najwyraźniej przetwarzają głównie „on-line”, ponieważ lepiej odpowiada ich potrzebom.

Moje pytanie brzmi: czy masz na to globalną wizję? Mam wrażenie, że te trzy części świata nie rozmawiają ze sobą zbyt wiele. Czy się mylę? Czy istnieje wielka zunifikowana teoria zrozumienia, w jaki sposób odnosi się do ? Czy znasz jakieś zasoby, w których można by ustalić podstawy tej teorii?XYX

Nie jestem pewien, czy to pytanie naprawdę ma sens, ale jestem trochę zagubiony między tymi wszystkimi teoriami. Wyobrażam sobie odpowiedź na pytanie „powinienem użyć tego czy tamtego?” byłoby „zależy od tego, co chcesz zrobić (i twoich danych)”. Jednak wydaje mi się, że te trzy światy próbują odpowiedzieć na to samo pytanie ( ?), Więc powinno być możliwe, aby mieć na to lepszy pogląd i głęboko zrozumieć, co wyróżnia każdą technikę.y=fa(x)

Arthur
źródło
Myślę, że pierwsze 2 obszary rozmawiają dziś ze sobą znacznie częściej. Świetne pytanie!
Zach.
Temat dynamitu i dobrze napisane pytanie!
rolando2,
1
Zrób to CW.
kardynał
1
Nazwałbym siebie statystyką, ale robię mnóstwo rzeczy on-line, robię różnego rodzaju nieliniowe modelowanie i zajmowałem się przynajmniej małą sztuczną inteligencją. Myślę, że różnice w typowych narzędziach mają więcej wspólnego z rodzajami problemów, z którymi ludzie mają do czynienia. Tam, gdzie ich problemy się zbiegają, prędzej czy później mają tendencję do znajdowania lub wymyślania tych samych narzędzi (często pod różnymi nazwami i z nieco innymi dzwonkami i gwizdkami).
Glen_b

Odpowiedzi:

4

Jeśli chodzi o partię kontra online, z mojego doświadczenia wynika, że ​​czasami łączysz oba te elementy. Chodzi mi o to, że pozwalasz ciężkim ćwiczeniom, tj. Intensywnym obliczeniom związanym z formułowaniem modeli, wykonywać je offline, a następnie stosować szybkie / adaptacyjne procedury, aby używać tych modeli. Odkryliśmy, że „nowych danych” można używać na trzy sposoby; 1. po prostu prognozować; 2. w celu zmiany parametrów znanego modelu oraz 3. w celu zmiany parametrów i ewentualnie zmiany modelu. Te trzy podejścia wykorzystano do „analizy na żywo” i oczywiście czas wykonania jednego z tych trzech kroków zależy zarówno od użytego oprogramowania, jak i dostępnego sprzętu.

Przejdźmy teraz do innego punktu dotyczącego sposobu modelowania y vs x. Wolę używać rozszerzonej wersji regresji (zwanej funkcjami przenoszenia lub modelami ARMAX) jako podstawy do wyciągnięcia wpływu historii y oraz wartości bieżącej i pas x. Niezwykle ważne jest, aby zweryfikować wymagania Gaussa i uwzględnić jako niezbędne proxy dla zarówno pominiętej struktury deterministycznej (poprzez wykrywanie wartości odstających), jak i pominiętej struktury stochastycznej za pomocą komponentu ARMA. Dodatkowo należy upewnić się, że nie wykorzystano zbyt dużej ilości danych (testy stałości parametrów) i że każda niestała wariancja błędu wynikająca z wariancji błędu deterministycznego / stochastycznego i / lub powiązania między oczekiwaną wartością y a wariancją pozostałości.

Teraz historycznie (lub histerycznie, jeśli chcesz) różne silosy myśli próbowały sformułować podejścia. Wiele modeli ad-hoc używanych przez naszych przodków może być podzbiorami Funkcji Transferu, ale istnieją zestawy danych, które można sobie wyobrazić, które podważą założenia Funkcji Transferu. Chociaż te zbiory danych mogą istnieć, nie należy zakładać, że będą one miały bezpośredni wpływ na ciebie, chyba że analiza da taki wniosek.

Teksty takie jak Wei (Addison-Wessley) lub Box-Jenkins powinny zapewniać rozsądną mapę drogową, aby wesprzeć moje komendy i doprowadzić do dalszych odpowiedzi.

Nawiasem mówiąc, to świetne pytanie!

Dodatkowo, jeśli masz jakieś dane, których chcesz użyć, mógłbym zademonstrować różne opcje opisane tutaj. Prześlij swoje dane do sieci, aby wszyscy mogli je zobaczyć i wykorzystać w swoich staraniach o odniesienie „y do x”.

IrishStat
źródło
Dzięki za odpowiedź! Przyjrzę się temu głębiej, jak tylko będę miał czas i zapewne do ciebie wrócę. Muszę powiedzieć, że nie znałem modelu ARMAX. Chyba byłbym bezpośrednio w całkowicie endogennym VAR. Jeśli chodzi o dane, w rzeczywistości wciąż budujemy inne elementy dla naszego projektu, więc nie mam teraz zbyt wielu istotnych danych. Ale dziękuję bardzo, powinieneś znowu ode mnie usłyszeć!
Arthur
„Zatwierdź wymagania Gaussa”: czy modelowanie Gaussa / nieparametryczne / zapomnienie (tempo Breimana) nie jest głębokim rozłamem?
denis
2

Breiman rozwiązuje ten problem w „ Modelowaniu statystycznym: dwie kultury ”. Pierwsza odpowiedź na doskonałe pytanie.

Quant Guy
źródło
Podziękować! Twój link nie działał dla mnie, ten działa i ten prowadzi bezpośrednio do pdf. Przeczytałem tylko streszczenie i część losowo w tekście i wygląda to bardzo interesująco. Wygląda jednak na to, że chłopaki są całkowicie „antyklasycznymi statystykami”. Dzięki jeszcze raz.
Arthur
Świetnie - zaktualizowałem link. To zabawna lektura - miłej zabawy!
Ram Ahluwalia
Omówiono tutaj „Dwie kultury” Breimana : kilka interesujących kwestii, ale trudno zmienić lub nawet wyjaśnić sposób myślenia.
denis
1

Podejrzewam, że odpowiedź na to pytanie brzmi „nie ma darmowego lunchu”. Być może powodem, dla którego statystycy, informatycy i elektrycy opracowali różne algorytmy, jest zainteresowanie rozwiązywaniem różnego rodzaju problemów.

Zach
źródło
0

Powiedziałbym, że te trzy grupy, które wskazałeś, są rzeczywiście tylko dwiema grupami:

  • Statystyka
  • Uczenie maszynowe, sztuczna inteligencja i rozpoznawanie wzorców.

Wszystkie gałęzie związane z filtrowaniem sygnałów oparte są na dwóch aspektach: ekstrakcji cech (falki, Gabor i Fourier), które należą do rozpoznawania wzorców i dyskretnej transformacji Fouriera, która należy do trudnej matematyki. W rzeczywistości filtrowanie cyfrowe jest bardziej zbliżone do strony inżynierskiej, ponieważ próbuje rozwiązać ten problem rozpoznawania wzorców za pomocą prostych i niskich algorytmów obliczeniowych. Ale zasadniczo jest to uczenie maszynowe.

Co więcej, Filtrowanie, Fale, Gabor i Fourier są szeroko stosowane w przetwarzaniu obrazu, stanowiącym rdzeń sztucznego widzenia.

Istnieje różnica między statystykami a uczeniem maszynowym.

a.desantos
źródło