Terminy błędów modelu średniej ruchomej

17

To jest podstawowe pytanie dotyczące modeli Box-Jenkins MA. Jak rozumiem, model MA jest zasadniczo liniową regresję szeregów czasowych wartości Y przeciwko poprzednich kadencjach błędach et,...,etn . Oznacza to, że obserwacja Y najpierw regresji na jej poprzednich wartości Yt1,...,Ytn , a następnie jedno lub więcej YY^ wartości są wykorzystywane jako źródła błędu dla modelu MA.

Ale jak obliczane są terminy błędów w modelu ARIMA (0, 0, 2)? Jeśli model MA jest używany bez części autoregresyjnej, a zatem nie ma wartości szacunkowej, to w jaki sposób mogę uzyskać warunek błędu?

Robert Kubrick
źródło
1
Nie, myślę, że mylisz definicję modelu MA (n), w którym regresja jest tylko w kategoriach eti , z jej oszacowaniem, gdzie eti są szacowane na podstawie danych .
Xi'an,
1
Główny problem w twoim pytaniu polega na tym, że mówisz, że model MA jest w zasadzie regresją liniową. To po prostu nieprawda, ponieważ nie przestrzegamy terminów błędów.
mpiktas,
Myślę, że termin błąd jest rzeczywiście , gdzie Y jest E ( Y | Y t , . . . , T - n ) lub po prostu Y t - Y t - 1 . Dlatego oszacowanie parametru modelu MA jest uzyskiwane z powtarzającego się wzorca w funkcji częściowej autokorelacji Y , czyli zachowania reszt. Oszacowanie parametru AR opiera się na powtarzającym się wzorze acf (Y).YtYt^Y^E(Y|Yt,...,tn)YtYt1Y
Robert Kubrick,

Odpowiedzi:

20

Oszacowanie modelu MA:

Załóżmy szereg z 100 punktami czasowymi i powiedzmy, że charakteryzuje go model MA (1) bez przecięcia. Następnie model podaje

yt=εtθεt1,t=1,2,,100(1)

Termin błędu tutaj nie jest przestrzegany. Aby to uzyskać, Box i in. Analiza szeregów czasowych: Prognozowanie i kontrola (wydanie trzecie) , strona 228 , sugeruje, że składnik błędu jest obliczany rekurencyjnie przez,

εt=yt+θεt1

Tak więc termin błędu dla to: ε 1 = y 1 + θ ε 0 Teraz nie możemy tego obliczyć bez znajomości wartości θ . Aby to osiągnąć, musimy obliczyć wstępną lub wstępną ocenę modelu, patrz Box i in. wspomnianej książki, Rozdział 6.3.2 strona 202 stwierdza, że:t=1

ε1=y1+θε0
θ

Wykazano, że pierwsze autokorelacje procesu MA ( q ) są niezerowe i można je zapisać w kategoriach parametrów modelu jako ρ k = - θ k + θ 1 θ k + 1 + θ 2 θ k + 2 + + θ q - k θ qqq Powyższe wyrażenie dla ρ 1 , ρ 2, ρ q w kategoriach θ 1 , θ 2 , , θ q , dostarcza q równań w q niewiadomych. Wstępne szacunki θ S mogą być otrzymywane przez zastąpienie oszacowania r k o p k w powyższym równaniu

ρk=θk+θ1θk+1+θ2θk+2++θqkθq1+θ12+θ22++θq2k=1,2,,q
ρ1,ρ2,ρqθ1,θ2,,θqqqθrkρk

Zauważ, że jest szacowana autokorelacji. Więcej informacji znajduje się w rozdziale 6.3 - Wstępne oszacowania parametrów , proszę przeczytać o tym. Teraz, zakładając, że otrzymujemy wstępne oszacowanie θ = 0,5 . Następnie ε 1 = y 1 + 0,5 ε 0 Kolejnym problemem jest to, że nie mamy wartości dla ε 0, ponieważ t zaczyna się od 1, więc nie możemy obliczyć ε 1 . Na szczęście istnieją dwie metody uzyskania dwóch,rkθ=0.5

ε1=y1+0.5ε0
ε0tε1
  1. Prawdopodobieństwo warunkowe
  2. Bezwarunkowe prawdopodobieństwo

Według Box i in. W sekcji 7.1.3 na stronie 227 wartości można podstawić na zero jako przybliżenie, jeśli n jest umiarkowane lub duże, ta metoda jest prawdopodobieństwem warunkowym. W przeciwnym razie stosuje się Bezwarunkowe Prawdopodobieństwo, w którym wartość ε 0 jest uzyskiwana przez prognozowanie wsteczne, Box i in. polecam tę metodę. Przeczytaj więcej na temat prognozowania wstecznego w rozdziale 7.1.4 na stronie 231 .ε0nε0

Po uzyskaniu wstępnych oszacowań i wartości , w końcu możemy przystąpić do rekurencyjnego obliczenia składnika błędu. Ostatnim etapem jest oszacowanie parametru modelu ( 1 ) , pamiętaj, że nie jest to już wstępna ocena.ε0(1)

Przy szacowaniu parametru wykorzystuję procedurę estymacji nieliniowej, szczególnie algorytm Levenberga-Marquardta, ponieważ modele MA są nieliniowe na jego parametrze.θ

Ogólnie rzecz biorąc, zdecydowanie polecam przeczytanie Box i in. Analiza szeregów czasowych: prognozowanie i kontrola (wydanie trzecie) .

Al-Ahmadgaid Asaad
źródło
Czy może Pan wyjaśnić, co jest ? rk
Piyush Divyanakar
4

Model Gaussa MA (q) jest zdefiniowany (nie tylko przez Boxa i Jenkinsa!) Jako więc model MA (q) jest „czystym” modelem błędu, a stopień q określa, jak daleko wstecz korelacja sięga.

Yt=i=1qϑieti+σet,etiidN(0,1)
q
Xi'an
źródło
1
etetq
1
Dlaczego w twojej formule jest minus? Zwykle minus dotyczy modeli AR. Matematycznie to nie problem, jestem po prostu ciekawy, ponieważ nigdy nie widziałem minusów w modelach MA.
mpiktas,
3
@RobertKubrick, czy znasz twierdzenie Wolda o rozkładzie ? Każdy stacjonarny proces ma odpowiadający mu proces innowacyjny, czyli z którego miejscaet come.
mpiktas
1
@mpiktas Thanks, that gives some background on the error term, but I am still not clear on where the innovation process comes from, for an innovation to exist there's got to be a forecast somewhere (en.wikipedia.org/wiki/Innovation_(signal_processing)). Is the optimal Y forecast simply E(Y), that is the mean of the series?
Robert Kubrick
1

You say "the observation Y is first regressed against its previous values Yt1,...,Ytn and then one or more YY^ values are used as the error terms for the MA model." What I say is that Y is regressed against two predictor series et1 and et2 yielding an error process et which will be uncorrelated for all i=3,4,,,,t .We then have two regression coefficients: θ1 representing the impact of et1 and θ2 representing the impact of et2. Thus et is a white noise random series containing n-2 values. Since we have n-2 estimable relationships we start with the assumption that e1 and e2 are equal to 0.0 . Now for any pair of θ1 and θ2 we can estimate the t-2 residual values. The combination that yields the smallest error sum of squares would then be the best estimates of θ1 and θ2.

IrishStat
źródło
What are the 2 other predictor series? I am asking because when I look at the literature I have it's never clearly specified. Are these 2 other series unrelated to Y? I had the impression that all ARIMA formulation is limited to the Y series.
Robert Kubrick
1
The 2 predictors are the lags of the error terms. Since these are not known a priori since we do not know the error terms before we begin is why this has to be treated by non-linear estimation.The confusion you are having is that a model that is finite in the past ( i.e. an AR MODEL ) is potentially infinite in the errors AND a model that is finite in the errors ( i.e. an MA MODEL) is potentially infinite in the past of Y.The reason one selects an AR MODEL versus an MA MODEL is for parsimony. Sometimes we construct an ARMA MODEL which blends both the history of Y and the history of the errors.
IrishStat
1
As I commented in the other answer, what I am still missing is what's the optimal forecast for Y, which is used to calculate the innovation etn.
Robert Kubrick
1

See my post here for an explanation of how to understand the disturbance terms in a MA series.

You need different estimation techniques to estimate them. This is because you cannot first get the residuals of a linear regression and then include the lagged residual values as explanatory variables because the MA process uses the residuals of the current regression. In your example you are making two regression equations and using residuals from one into the other. This is not what an MA process is. It cannot be estimated with OLS.

JoeDanger
źródło