Próbuję nauczyć się uczenia wzmacniającego, a ten temat jest dla mnie bardzo mylący. Wprowadziłem wprowadzenie do statystyki, ale po prostu nie mogłem zrozumieć tego tematu intuicyjnie.
źródło
Próbuję nauczyć się uczenia wzmacniającego, a ten temat jest dla mnie bardzo mylący. Wprowadziłem wprowadzenie do statystyki, ale po prostu nie mogłem zrozumieć tego tematu intuicyjnie.
Ważność próbkowania jest formą próbkowania z rozkładu innego niż rozkład odsetek, tak aby łatwiej uzyskać lepsze oszacowania parametru z rozkładu odsetek. Zazwyczaj zapewnia to oszacowanie parametru o mniejszej wariancji niż uzyskano by przez próbkowanie bezpośrednio z pierwotnego rozkładu o tej samej wielkości próbki.
Jest stosowany w różnych kontekstach. Zasadniczo pobieranie próbek z różnych rozkładów pozwala na pobranie większej liczby próbek w części interesującego rozkładu, który jest podyktowany przez aplikację (ważny region).
Jednym z przykładów może być to, że chcesz mieć próbkę, która zawiera więcej próbek z ogonów rozkładu, niż zapewniłoby to czysto losowe próbkowanie z rozkładu zainteresowania.
Artykuł w Wikipedii, który widziałem na ten temat, jest zbyt abstrakcyjny. Lepiej jest spojrzeć na różne konkretne przykłady. Zawiera jednak linki do interesujących aplikacji, takich jak Bayesian Networks.
Jednym z przykładów ważnego próbkowania w latach 40. i 50. XX wieku jest technika redukcji wariancji (forma metody Monte Carlo). Zobacz na przykład książkę Monte Carlo Methods autorstwa Hammersley and Handscomb opublikowaną jako Methuen Monograph / Chapman and Hall w 1964 r. I przedrukowaną w 1966 r., A później przez innych wydawców. Sekcja 5.4 książki dotyczy pobierania próbek ważności.
Ważność próbkowania jest symulacją lub metodą Monte Carlo przeznaczoną do przybliżania całek. Termin „pobieranie próbek” jest nieco mylący, ponieważ nie ma na celu dostarczenia próbek z danego rozkładu.
Intuicyjna próba ważności polega na tym, że dobrze zdefiniowana całka, taka jak można wyrazić jako oczekiwanie dla szerokiego zakresu rozkładów prawdopodobieństwa: I = E f [ H ( X ) ] = ∫ X H ( x ) f ( x )
Po zrozumieniu tej podstawowej własności, realizacja tego pomysłu polega na prawie wielkich liczb, jak w innych metodach Monte Carlo, tj. Na symulacji [za pomocą generatora pseudolosowego] próbki iid dystrybuowane f oraz zastosowanie aproksymacji i = 1(x1,…,xn) f które
W zależności od wyboru dystrybucji , powyższe Estymator I może lub nie może mieć skończoną wariancję. Jednak zawsze istnieją opcje f, które pozwalają na skończoną wariancję, a nawet na dowolnie małą wariancję (aczkolwiek wybory te mogą być niedostępne w praktyce). I istnieją również wybory F które sprawiają, że pobieranie próbek ważności estymatora I bardzo słaba zbliżenia I . Obejmuje to wszystkie wybory, w których wariancja staje się nieskończona, nawet jeśli w niedawnym artykule Chatterjee i Diaconis bada, jak porównać samplery ważności z nieskończoną wariancją. Poniższe zdjęcie pochodzi zf I^ f f I^ I moja blogowa dyskusja na temat tego artykułu i ilustruje słabą zbieżność nieskończonych estymatorów wariancji.
[Poniżej zamieszczono reprodukcję z naszej książki Monte Carlo Statistics Methods .]
źródło