Z dowolnego ogólnego algorytmu próbkowania można wywnioskować algorytm optymalizacji.
Rzeczywiście, aby zmaksymalizować dowolną funkcję , wystarczy pobrać próbki z . Dla wystarczająco małego próbki te spadną w pobliżu globalnego maksimum (lub lokalnych maksimów w praktyce) funkcji .g ∼ e f / T T f
Przez „próbkowanie” mam na myśli wyciągnięcie pseudolosowej próbki z rozkładu przy danej funkcji logarytmu wiarygodności znanej ze stałej. Na przykład próbkowanie MCMC, próbkowanie Gibbsa, próbkowanie wiązki itp. Przez „optymalizację” rozumiem próbę znalezienia parametrów maksymalizujących wartość danej funkcji.
Czy możliwe jest odwrócenie? Biorąc pod uwagę heurystykę znajdowania maksimum funkcji lub wyrażenia kombinatorycznego, czy możemy wyodrębnić wydajną procedurę próbkowania?
Na przykład konsola HMC wykorzystuje informacje gradientowe. Czy możemy skonstruować procedurę próbkowania, która wykorzystuje zbliżone do BFGS przybliżenie Hesji? (edytuj: pozornie tak: http://papers.nips.cc/paper/4464-quasi-newton-methods-for-markov-chain-monte-carlo.pdf ) Możemy używać MCTS w problemach kombinatorycznych, czy możemy to przetłumaczyć do procedury pobierania próbek?
Kontekst: trudność w próbkowaniu polega często na tym, że większość masy rozkładu prawdopodobieństwa leży w bardzo małym regionie. Istnieją interesujące techniki znalezienia takich regionów, ale nie przekładają się one bezpośrednio na obiektywne procedury próbkowania.
Edycja: Mam teraz wrażenie, że odpowiedź na to pytanie jest w pewnym stopniu równoważna równości klas złożoności #P i NP, co czyni odpowiedź prawdopodobnie „nie”. Wyjaśnia, dlaczego każda technika próbkowania daje technikę optymalizacji, ale nie odwrotnie.
źródło
Odpowiedzi:
Jedno połączenie zostało poruszone przez Maxa Wellinga i przyjaciół w tych dwóch artykułach:
Istotą jest to, że „uczenie się”, tj. optymalizacja modelu płynnie przechodzi w próbkowanie od tyłu.
źródło
Jest link, to sztuczka Gumbela-Maxa!
http://www.cs.toronto.edu/~cmaddis/pubs/astar.pdf
źródło
źródło