Czytałem (na przykład tutaj ), że jądro Epanechnikowa jest optymalne, przynajmniej w sensie teoretycznym, podczas szacowania gęstości jądra. Jeśli to prawda, to dlaczego Gaussian pojawia się tak często jako domyślne jądro lub w wielu przypadkach jedyne jądro w bibliotekach szacowania gęstości?
nonparametric
kernel-smoothing
John Rauser
źródło
źródło
kdensity
.Odpowiedzi:
Przyczyną tego, że jądro Epanechnikowa nie jest powszechnie używane ze względu na jego teoretyczną optymalizację, może być bardzo dobrze że jądro Epanechnikowa nie jest w rzeczywistości teoretycznie optymalne . Tsybakov wyraźnie krytykuje argument, że jądro Epanechnikowa jest „teoretycznie optymalne” w s. 16–19 Wstępu do estymacji nieparametrycznej (sekcja 1.2.4).
Próbując podsumować, przy pewnych założeniach dotyczących jądraK i stałej gęstości p można stwierdzić, że średni zintegrowany błąd kwadratowy ma postać
Główną krytyką Tsybakowa wydaje się być minimalizowanie w stosunku do nieujemnych jąder, ponieważ często możliwe jest uzyskanie lepszych wyników estymatorów, które są nawet nieujemne, bez ograniczania się do nieujemnych jąder.
Pierwszy krok argumentu dla jądra Epanechnikowa zaczyna się od zminimalizowania(1) ponad h i wszystkich nieujemnych jąder (zamiast wszystkich jąder szerszej klasy), aby uzyskać „optymalną” przepustowość dla K
i „optymalne” jądro (Epanechnikov)
którego średni zintegrowany błąd kwadratowy wynosi:
Nie są to jednak możliwe wybory, ponieważ zależą od wiedzy (za pośrednictwemp′′ ) o nieznanej gęstościp - dlatego są wielkościami „wyroczni”.
Twierdzenie Tsybakowa sugeruje, że asymptotyczny MISE dla wyroczni Epanechnikowa to:
Tsybakov says (2) is often claimed to be the best achievable MISE, but then shows that one can use kernels of order 2 (for whichSK=0 ) to construct kernel estimators, for every ε>0 , such that
Therefore, forε small enough, there exist true estimators which have smaller asymptotic MISE than the Epanechnikov oracle, even using the same assumptions on the unknown density p .
In particular, one has as a result that the infimum of the asymptotic MISE for a fixedp over all kernel estimators (or positive parts of kernel estimators) is 0 . So the Epanechnikov oracle is not even close to being optimal, even when compared to true estimators.
The reason why people advanced the argument for the Epanechnikov oracle in the first place is that one often argues that the kernel itself should be non-negative because the density itself is non-negative. But as Tsybakov points out, one doesn't have to assume that the kernel is non-negative in order to get non-negative density estimators, and by allowing other kernels one can non-negative density estimators which (1) aren't oracles and (2) perform arbitrarily better than the Epanechnikov oracle for a fixedp . Tsybakov uses this discrepancy to argue that it doesn't make sense to argue for optimality in terms of a fixed p , but only for optimality properties which are uniform over a class of densities. He also points out that the argument still works when using the MSE instead of MISE.
EDIT: See also Corollary 1.1. on p.25, where the Epanechnikov kernel is shown to be inadmissible based on another criterion. Tsybakov really seems not to like the Epanechnikov kernel.
źródło
The Gaussian kernel is used for example in density estimation through derivatives:
This is because the Epanechnikov kernel has 3 derivatives before it's identically zero, unlike the Gaussian which has infinitely many (nonzero) derivatives. See section 2.10 in your link for more examples.
źródło