Jak obliczyć wzajemne informacje?

10

Jestem trochę zmieszany. Czy ktoś może mi wyjaśnić, jak obliczyć wzajemne informacje między dwoma terminami w oparciu o matrycę termin-dokument z występowaniem terminów binarnych jako wag?

W.hyH.owW.hminW.hmirmireodoummint11111reodoummint2)1010reodoummint3)1110

ja(X;Y)=yYxXp(x,y)log(p(x,y)p(x)p(y))

Dziękuję Ci

użytkownik18075
źródło
Co to są i Y ? XY
Dilip Sarwate
X i Y są warunkami. X może być „Dlaczego”, a Y może być „Jak”.
user18075

Odpowiedzi:

7

Co powiesz na utworzenie wspólnej tabeli prawdopodobieństwa zawierającej znormalizowane współwystępowania w dokumentach. Następnie można uzyskać entropię łączoną i entropię brzeżną za pomocą tabeli. Na koniec

ja(X,Y)=H.(X)+H.(Y)-H.(X,Y).
Zoran
źródło
1
Po określeniu rozkładów łącznych i brzeżnych, dlaczego konieczne jest obliczenie , H ( Y ) i H ( X , Y ) i zastosowanie przedstawionego wzoru? Nie można ustalić wzajemnych informacji bezpośrednio za pomocą wzoru podanego przez PO, ponieważ wszystko, co jest potrzebne do „podłączenia”, a mianowicie. p ( x , y ) , p ( x ) i p ( y ) są znane w tym momencie? H.(X)H.(Y)H.(X,Y)p(x,y),p(x)p(y)
Dilip Sarwate
2
formuły są równoważne, z tym że te ostatnie mogą być łatwiej interpretowalne na pierwszy rzut oka.
Zoran