Proces Gaussa: właściwości aproksymacji funkcji

16

Uczę się o procesie Gaussa i słyszałem tylko fragmenty. Byłbym wdzięczny za komentarze i odpowiedzi.

Czy w przypadku dowolnego zestawu danych prawdą jest, że aproksymacja funkcji procesu Gaussa dałaby zero lub pomijalny błąd dopasowania w punktach danych? W innym miejscu słyszałem również, że proces Gaussa jest szczególnie dobry w przypadku hałaśliwych danych. To wydaje się być w konflikcie z niskim błędem dopasowania dla jakichkolwiek zaobserwowanych danych?

Dodatkowo, dalej od punktów danych wydaje się, że istnieje większa niepewność (większa kowariancja). Jeśli tak, to czy zachowuje się jak modele lokalne (RBF itp.)?

Wreszcie, czy jest jakaś uniwersalna właściwość przybliżenia?

oalah
źródło

Odpowiedzi:

17

Załóżmy, że próbka danych to . Załóżmy również, że mamy funkcję kowariancji k ( x 1 , x 2 ) i średnią zero określoną dla procesu Gussian. Rozkład dla nowego punktu x będzie Gaussa ze średnią m ( x ) = k K - 1 rokre=(X,y)={xja,yja=y(xja)}ja=1N.k(x1,x2))x

m(x)=kK.-1y
oraz odchylenia Wektor k = { k ( x , x 1 ) , , k ( x , x N ) } jest wektorem kowariancji, macierzy K = { k ( x i , x j ) } N i
V.(x)=k(x,x)-kK.-1kT..
k={k(x,x1),,k(x,xN.)} jest macierzą kowariancji próbek. W przypadku, gdy dokonujemy prognozy przy użyciu średniej wartości rozkładu bocznego dlachwytówwłaściwości interpolacjipróbki. Naprawdę, m(X)=KK-1y=y. Nie dzieje się tak jednak, jeśli używamy regularyzacji, tj. Uwzględniamy termin białego szumu. w tym przypadku macierz kowariancji dla próbki ma postaćK+σI, ale dla kowariancji z rzeczywistymi wartościami funkcji mamy macierz kowariancjiK, a średnia tylna to m(X)=KK.={k(xja,xjot)}ja,jot=1N.
m(X)=K.K.-1y=y.
K.+σjaK. Ponadto regularyzacja sprawia, że ​​problem jest bardziej stabilny obliczeniowo.
m(X)=K.(K.+σja)-1yy.

Wybierając wariancję szumu możemy wybrać, czy chcemy interpolacji ( σ = 0 ), czy też chcemy obsługiwać głośne obserwacje ( σ jest duże).σσ=0σ

kO(n)n

Aleksiej Zajcew
źródło