Przyrostowa regresja procesu Gaussa

11

Chcę wdrożyć przyrostową regresję procesu gaussowskiego za pomocą przesuwanego okna nad punktami danych, które docierają jeden po drugim przez strumień.

Pozwolić doznacz wymiarowość przestrzeni wejściowej. Więc każdy punkt danychxi ma d liczba elementów.

Pozwolić n być wielkości przesuwanego okna.

Aby dokonać prognoz, muszę obliczyć odwrotność macierzy gramowej K, gdzie Kij=k(xi,xj) a k to kwadratowe jądro wykładnicze.

Aby uniknąć powiększania się K z każdym nowym punktem danych, pomyślałem, że mogę usunąć najstarszy punkt danych przed dodaniem nowych punktów i w ten sposób zapobiegnę wzrostowi gramów. Na przykład letK=ϕ(X)TΣϕ(X) gdzie Σ jest kowariancją wag i ϕ jest niejawną funkcją odwzorowania sugerowaną przez kwadratowe jądro wykładnicze.

Teraz pozwól X=[xtn+1|xtn+2|...|xt] i Xnew=[xtn+2|...|xt|xt+1] gdzie xd przez 1 macierze kolumnowe.

Potrzebuję skutecznego sposobu na znalezienie Knew1 potencjalnie używając K. Nie wygląda to na odwrotność zaktualizowanego problemu macierzy 1, który można skutecznie rozwiązać formułą Shermana-Morrisona.

bfaskiplar
źródło

Odpowiedzi:

8

Jest kilka algorytmów rekurencyjnych. Powinieneś rzucić okiem na algorytm rekurencyjnych algorytmów najmniejszych kwadratów jądra (KRLS) i powiązane algorytmy GP online.

Memming
źródło
Bardzo dziękuję za te doskonałe wskazówki!
bfaskiplar
-1

Stopniowe szacowanie modeli GP jest dobrze badane w literaturze. Podstawową ideą jest warunkowanie wszystkich nowych obserwacji, które chcesz przewidzieć, uwarunkowanie na jeden krok do przodu i robienie tego wielokrotnie. To staje się jakoś bliskie filtrowaniu Kalmana.

Wis
źródło
Ta odpowiedź byłaby lepsza, gdyby zacytowała książkę, artykuł lub inną publikację naukową.
Sycorax mówi Przywróć Monikę