Pytania oznaczone «mutual-information»

informacja wzajemna to pojęcie z teorii informacji. Jest miarą łącznej zależności między dwiema zmiennymi losowymi, która nie jest, jak zwykły współczynnik korelacji, ograniczona do zmiennych skalarnych.

15
Jaka intuicja kryje się za wymiennymi próbkami pod hipotezą zerową?

Testy permutacyjne (zwane również testem randomizacji, testem ponownej randomizacji lub testem dokładnym) są bardzo przydatne i przydają się, gdy t-testnie jest spełnione założenie o rozkładzie normalnym wymagane na przykład i gdy transformacja wartości przez ranking test nieparametryczny,...

11
Wzajemne informacje jako prawdopodobieństwo

Czy wzajemna informacja nad wspólną entropią: 0 ≤ I( X, Y)H.( X, Y)≤ 10≤I(X,Y)H(X,Y)≤1 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1 być zdefiniowane jako: „Prawdopodobieństwo przekazania informacji z X do Y”? Przepraszam, że jestem taki naiwny, ale nigdy nie studiowałem teorii informacji i staram się po...

11
Jakie są zalety i wady stosowania punktowej wzajemnej informacji na macierzy współbieżności słów przed SVD?

Jednym ze sposobów generowania zanurzeń słowo jest następująco ( lustro ): Zdobądź ciała, np. „Lubię latać. Lubię NLP. Lubię głębokie uczenie się”. Zbuduj z niego macierz współbieżności słów: Wykonaj SVD na XXX i zachowaj pierwsze kkk kolumn U. U1:|V|,1:kU1:|V|,1:kU_{1:|V|,1:k} Pomiędzy...

9
Jak porównać obserwowane i oczekiwane zdarzenia?

Załóżmy, że mam jedną próbkę częstotliwości 4 możliwych zdarzeń: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 i mam spodziewane prawdopodobieństwo wystąpienia moich zdarzeń: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Dzięki sumie obserwowanych częstotliwości moich czterech zdarzeń (18) mogę obliczyć oczekiwane...

9
Intuicja na temat wspólnej entropii

Mam problem z budowaniem intuicji na temat wspólnej entropii. H.( X, Y)H(X,Y)H(X,Y) = niepewność w łącznym rozkładzie p ( x , y)p(x,y)p(x,y); H.( X)H(X)H(X) = niepewność w px( x )px(x)p_x(x); H.( Y)H(Y)H(Y) = niepewność w py( y)py(y)p_y(y). Jeśli H (X) jest wysoki, rozkład jest bardziej...

9
Korelacja krzyżowa a wzajemna informacja

Jaka jest różnica między korelacją krzyżową a informacjami wzajemnymi. Jakie problemy można rozwiązać za pomocą tych środków i kiedy należy zastosować jeden nad drugim. Dziękuję za komentarze. Aby wyjaśnić, pytanie wynika raczej z zainteresowania analizą promieniowania niż analizy szeregów...