Co rozumie się przez termin „wcześniejsze” w uczeniu maszynowym

12

Jestem nowy w uczeniu maszynowym. Przeczytałem kilka artykułów, w których wykorzystali głębokie uczenie się do różnych zastosowań i użyli terminu „wcześniej” w większości przypadków modelowych, powiedzmy wcześniej w ocenie ciała ludzkiego. Czy ktoś może wyjaśnić, co to właściwie znaczy. W tutorialach mogłem znaleźć tylko matematyczne sformułowanie wcześniejszego i późniejszego.

Amy
źródło
5
To koncepcja matematyczna, więc sformułowana matematycznie. Jednak strona Wikipedii wydaje się dawać wiele intuicji. Sprawdziłeś to? Jeśli tak, czy możesz powiedzieć więcej o tym, czego nie rozumiałeś i czego szukasz w odpowiedzi?
David Richerby,
@David Richerby . Dziękuję za odpowiedź. Tak, sprawdziłem tę stronę wikipedii i mogłem ustalić niejasny pomysł, że chodzi o wiedzę lub informacje o zmiennej. Czytałem artykuły na temat szacowania pozycji ciała, gdzie były wzmianki o priory pozycji ciała, wcześniejszy kinematyczny ciało, modelowanie priorytetów nad pozą 3D, uczenie się priory, przed oszacowaniem pozy 3D. Nie mogłem jasno zrozumieć, co w tym kontekście oznacza termin „wcześniejszy”.
Amy

Odpowiedzi:

13

Mówiąc prosto, bez żadnych symboli matematycznych, wcześniejsze oznaczają początkowe przekonania o zdarzeniu pod względem rozkładu prawdopodobieństwa . Następnie konfigurujesz eksperyment i uzyskujesz trochę danych, a następnie „aktualizujesz” swoje przekonania (i stąd rozkład prawdopodobieństwa) zgodnie z wynikiem eksperymentu (rozkład prawdopodobieństwa a posteriori).

Przykład: Załóżmy, że otrzymaliśmy dwie monety. Ale nie wiemy, która moneta jest fałszywa. Moneta 1 jest bezstronna (HEADS i TAILS mają 50% prawdopodobieństwa), a Moneta 2 jest stronnicza, powiedzmy, wiemy, że daje HEADS z prawdopodobieństwem 60%. Matematycznie:

p(H|Coin1)=0.4
p(H|Coin2)=0.6

To wszystko, co wiemy przed rozpoczęciem eksperymentu.

Teraz wybieramy rzut monetą i na podstawie informacji, które mamy (H lub T), zgadniemy, którą monetę wybraliśmy (Moneta 1 lub Moneta 2).

p(Coin1)=p(Coin2)=0.5

p(Coin1|H)=p(H|Coin1)p(Coin1)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.4×0.50.4×0.5+0.6×0.5=0.4

p(Coin2|H)=p(H|Coin2)p(Coin2)p(H|Coin1)p(Coin1)+p(H|Coin2)p(Coin2)=0.6×0.50.4×0.5+0.6×0.5=0.6

0.5

Jest to podstawowa zasada wnioskowania bayesowskiego i statystyki wykorzystywanej w uczeniu maszynowym.

fade2black
źródło
2
Musisz naprawić powyższy przykład. Z tych obliczeń wynika, że ​​obie monety są stronnicze (pierwsza z prawdopodobieństwem głów 40%, a druga z prawdopodobieństwem głów 60%) W przypadku pierwszej tendencji jest to nadal rozkład Bernoulliego, ale z prawdopodobieństwem P (Coin1 | H) = 5/11 i P (Coin2 | H) =
6/11
1
Czy „Biorąc pod uwagę, że mamy HEADS, prawdopodobieństwo, że jest to Moneta 1, wynosi 0,4”, należy przepisać jako „Biorąc pod uwagę, że mamy HEADS, prawdopodobieństwo, że jest to HEADS, wynosi 0,4” ?
Mateen Ulhaq,
Wyjaśnienie nie wyjaśnia w kategoriach uczenia maszynowego.
user3023715