Dobry samouczek dotyczący ograniczonych maszyn Boltzmann (RBM)

10

Studiuję ograniczoną maszynę Boltzmanna (RBM) i mam pewne problemy ze zrozumieniem obliczeń prawdopodobieństwa dziennika w odniesieniu do parametrów RBM. Mimo że opublikowano wiele prac naukowych na temat RBM, nie ma szczegółowych kroków na temat pochodnych. Po przeszukaniu online udało mi się je znaleźć w tym dokumencie:

  • Fischer, A., i Igel, C. (2012). Wprowadzenie do ograniczonych maszyn Boltzmann. W L. Alvarez i in. (Red.): CIARP, LNCS 7441, s. 14–36, Springer-Verlag: Berlin-Heidelberg. ( pdf )

Jednak szczegóły tego dokumentu są dla mnie zbyt zaawansowane. Czy ktoś może skierować mnie na dobry samouczek / zestaw notatek z wykładu na temat RBM?


Edycja: @David, myląca sekcja jest pokazana poniżej (równanie 29 na stronie 26):

lnL(θ|v)wij=hp(h|v)E(v,h)wij+v,hp(v,h)E(v,h)wij=hp(h|v)hivjvp(v)hp(h|v)hivj(29)=p(Hi=1|v)vjvp(v)p(Hi=1|v)vj.
Upul
źródło
Czy możesz bardziej szczegółowo określić, które kroki Cię dezorientują?
David J. Harris
1
dobrym przeczytaniem jest rozdział 5 dotyczący uczenia się głębokich architektur dla AI ( iro.umontreal.ca/~bengioy/papers/ftml_book.pdf )
dksahuji
@dksahuji dzięki za info, także prof: Bengio pisze projekt DL i przeczuciom jest dostępny na iro.umontreal.ca/~bengioy/dlbook
Upul
Ten samouczek zawiera objaśnienia dotyczące matematyki RBM ( samouczek dotyczący ograniczonych maszyn Boltzmanna ).
Jiang Xiang

Odpowiedzi:

7

hp(h|v)hivj=vjh1...hi...hnp(h1,...,hi,...hn|v)hi=vjhih_ip(hi,h_i|v)hi
We have assumed that conditional independence between the hidden units, given the visible units, exists. Thus we can factorize the conditional joint probability distribution for the hidden states.
=vjhih_ip(hi|v)hip(h_i|v)=vjhip(hi|v)hih_ip(h_i|v)
The last term equals 1, since we are summing over all states. Thus what is left, is the first term. Since hi only takes states 1 and 0 we end up with:
=vjp(Hi=1|v)
peschn
źródło
7
  1. There is a decent tutorial of RBMs on the deeplearning site.

  2. This blog post (Introduction to Restricted Boltzmann Machines) is written in simpler language and explains the basics of RBMS really well:

  3. Also, maybe the best reference is Geoff Hinton's Neural Networks course on Coursea:

    I'm not sure if you can access the class and videos after the end of the class though.

sjm.majewski
źródło
2
There are still people signing up to the Coursera class and posting in the forum. You can still see all of the lectures, and access all quizzes and programming assignments (among the quizzes). This information will probably be up until the course is offered again. I recommend enrolling in the course just to view or download the material.
Douglas Zare
1

Lewe pomarańczowe pole przedstawia oczekiwaną wartość gradientu energii we wszystkich ukrytych konfiguracjach, biorąc pod uwagę, że jakiś widoczny wektor jest zamocowany na widocznych jednostkach (oczekiwanie na dane, ponieważ wykorzystuje próbkę z zestawu treningowego). Sam termin jest iloczynem (1) prawdopodobieństwa zobaczenia konkretnej ukrytej jednostki i, biorąc pod uwagę, że pewien wektor v jest zaciśnięty na jednostkach widocznych i (2) stan konkretnej widocznej jednostki j.

Prawe pomarańczowe pudełko jest tym samym, co lewe, z tym wyjątkiem, że robisz to, co jest w lewym pomarańczowym polu dla każdej możliwej widocznej konfiguracji zamiast tylko tej, która jest zaciśnięta na widocznych jednostkach (oczekiwanie na model, ponieważ nic nie jest zaciśnięte na widocznych jednostkach).

Avalon
źródło
1

Rozdział 5 kursu Hugo Larochelle na temat uczenia maszynowego ( wideo ) to najlepsze wprowadzenie, jakie do tej pory znalazłem.

Pochodna funkcji straty nie jest wyprowadzana na tych wykładach, ale nie jest to trudne (w razie potrzeby mogę przesłać skan moich obliczeń, ale tak naprawdę nie jest to takie trudne). Wciąż szukam dobrego podręcznika na ten temat, ale głównie są tylko artykuły. Dobry przegląd artykułów w rozdziale 20 Bengio's Deep Learning Book.

jakab922
źródło