Od miesięcy pracuję nad krótkoterminowym prognozowaniem obciążenia i wykorzystaniem danych klimatycznych / pogodowych w celu zwiększenia dokładności. Mam wykształcenie informatyczne i dlatego staram się nie popełniać dużych błędów i niesprawiedliwych porównań, pracując z narzędziami statystycznymi, takimi jak modele ARIMA. Chciałbym poznać Twoją opinię na temat kilku rzeczy:
Używam zarówno modeli (S) ARIMA, jak i (S) ARIMAX, aby zbadać wpływ danych pogodowych na prognozowanie. Czy uważasz, że konieczne byłoby zastosowanie również metod wygładzania wykładniczego?
Mając szereg czasowy 300 próbek dziennych, zaczynam od pierwszych dwóch tygodni i wykonuję prognozę z 5-dniowym wyprzedzeniem, używając modeli zbudowanych z funkcją auto.arima R (pakiet prognozy). Następnie dodaję kolejną próbkę do mojego zestawu danych i ponownie kalibruję modele i wykonuję kolejną prognozę na 5 dni i tak dalej, aż do końca dostępnych danych. Czy uważasz, że ten sposób działania jest prawidłowy?
Dziękuję za sugestie, chociaż celem naszej pracy jest artykuł w czasopiśmie inżynierskim, chciałbym wykonać pracę tak rygorystyczną, jak to możliwe z statystycznego punktu widzenia.
źródło
Odpowiedzi:
Myślę, że warto również zbadać modele wygładzania wykładniczego. Modele wygładzania wykładniczego są zasadniczo inną klasą modeli niż modele ARIMA i mogą dawać inne wyniki w danych.
To brzmi jak prawidłowe podejście i jest bardzo podobne do metody krzyżowej walidacji szeregów czasowych zaproponowanej przez Roba Hyndmana .
Zsumowałem błąd weryfikacji krzyżowej z każdej prognozy (wygładzanie wykładnicze, ARIMA, ARMAX), a następnie wykorzystałem ogólny błąd do porównania 3 metod.
Możesz również rozważyć „wyszukiwanie siatki” parametrów ARIMA zamiast korzystania z auto.arima. Podczas wyszukiwania w siatce eksplorowałbyś każdy możliwy parametr dla modelu arima, a następnie wybierałeś „najlepsze” przy użyciu dokładności prognozy.
źródło