Zdobywanie informacji, wzajemne informacje i powiązane środki

33

Andrew More definiuje zdobywanie informacji jako:

jasol(Y|X)=H.(Y)-H.(Y|X)

gdzie jest entropią warunkową . Jednak Wikipedia nazywa powyższą ilość wzajemnymi informacjami .H.(Y|X)

Z kolei Wikipedia definiuje pozyskiwanie informacji jako rozbieżność Kullbacka-Leiblera (inaczej rozbieżność informacji lub entropia względna) między dwiema zmiennymi losowymi:

reK.L.(P.||Q)=H.(P.,Q)-H.(P.)

gdzie jest zdefiniowane jako entropia krzyżowa .H.(P.,Q)

Te dwie definicje wydają się ze sobą niespójne.

Widziałem także innych autorów mówiących o dwóch dodatkowych powiązanych pojęciach, mianowicie entropii różnicowej i względnym uzyskiwaniu informacji.

Jaka jest dokładna definicja lub związek między tymi wielkościami? Czy istnieje dobry podręcznik, który obejmuje je wszystkie?

  • Zysk informacji
  • Wzajemne informacje
  • Krzyżowanie entropii
  • Entropia warunkowa
  • Entropia różniczkowa
  • Względny przyrost informacji
Amelio Vazquez-Reina
źródło
2
Aby jeszcze bardziej zwiększyć zamieszanie, zwróć uwagę, że notacja użyta do entropii krzyżowej jest również tą samą notacją, której użyto do entropii wspólnej. Użyłem do entropii krzyżowej, aby uniknąć pomyłek, ale to dla mojej korzyści i nigdy nie widziałem tego zapisu gdzie indziej. H.x(P.,Q)
Michael McGowan

Odpowiedzi:

24

Myślę, że nazywanie dywergencji Kullbacka-Leiblera „zyskiem informacji” jest niestandardowe.

Pierwsza definicja jest standardowa.

EDYCJA: Jednak można również nazwać wzajemną informacją.H.(Y)-H.(Y|X)

Zauważ, że nie sądzę, abyś znalazł dyscyplinę naukową, która naprawdę ma ustandaryzowany, precyzyjny i spójny schemat nazewnictwa. Więc zawsze będziesz musiał spojrzeć na formuły, ponieważ zazwyczaj dają ci lepszy pomysł.

Podręczniki: patrz „Dobre wprowadzenie do różnych rodzajów entropii” .

Również: Cosma Shalizi: Metody i techniki nauki o złożonych systemach: Przegląd, rozdział 1 (s. 33-114) w Thomas S. Deisboeck i J. Yasha Kresh (red.), Complex Systems Science in Biomedicine http: // arxiv.org/abs/nlin.AO/0307015

Robert M. Gray: Entropia i teoria informacji http://ee.stanford.edu/~gray/it.html

David MacKay: Teoria informacji, wnioskowanie i algorytmy uczenia się http://www.inference.phy.cam.ac.uk/mackay/itila/book.html

także „Co to jest„ entropia i zdobywanie informacji ”?”

wolf.rauch
źródło
Dzięki @wolf. Jestem skłonny zaakceptować tę odpowiedź. Jeśli pierwsza definicja jest standardowa, jak zdefiniowałbyś wzajemne informacje?
Amelio Vazquez-Reina,
2
Przepraszam. pierwsza ilość, jest również często nazywana informacją wzajemną. To przypadek niespójnego nazewnictwa. Jak powiedziałem, nie sądzę, aby istniała jakakolwiek spójna, jednoznaczna korespondencja pojęć i nazw. Np. „Wzajemna informacja” lub „zdobywanie informacji” jest szczególnym przypadkiem rozbieżności KL, więc ten artykuł na Wikipedii nie jest tak daleko. jasol(Y|X)=H.(Y)-H.(Y|X)
wolf.rauch
4

Rozbieżność Kullbacka-Leibera między i jest taka sama jak wzajemna informacja, którą można łatwo uzyskać:p(X,Y)P.(X)P.(Y)

ja(X;Y)=H.(Y)-H.(YX)=-yp(y)logp(y)+x,yp(x)p(yx)logp(yx)=x,yp(x,y)logp(yx)-y(xp(x,y))logp(y)=x,yp(x,y)logp(yx)-x,yp(x,y)logp(y)=x,yp(x,y)logp(yx)p(y)=x,yp(x,y)logp(yx)p(x)p(y)p(x)=x,yp(x,y)logp(x,y)p(y)p(x)=reK.L.(P.(X,Y)∣∣P.(X)P.(Y))

Uwaga:p(y)=xp(x,y)

Chris Elgoog
źródło
1

Wzajemne informacje można zdefiniować za pomocą Kullback-Liebler, ponieważ

ja(X;Y)=reK.L.(p(x,y)||p(x)p(y)).
yters
źródło
1

Wydobywanie wzajemnych informacji z zestawów danych tekstowych jako funkcja do szkolenia modelu uczenia maszynowego: (zadaniem było przewidzenie wieku, płci i osobowości blogerów)

wprowadź opis zdjęcia tutaj

Krebto
źródło
1

Obie definicje są poprawne i spójne. Nie jestem pewien, co wydaje ci się niejasne, gdy wskazujesz wiele punktów, które mogą wymagać wyjaśnienia.

M.jaM.utuzaljanfaormzatjaon jasoljanfaormzatjaonsolzajanjajanfaormzatjaonsą różne nazwy dla tej samej rzeczy. W różnych kontekstach jedna z tych nazw może być lepsza, nazywam ją tutaj Informacje .

reK.L.K.L.reK.L.reniezależny . Nazywamy to ilością informacji .

H.(X,Y)

H.(X,Y)reK.L.(P.||Q)=H.(P.,Q)-H.(P.)H.(P.,Q)

Wspólne -entropy i Krzyż -entropy to nie to samo.

H.q(p)

Mam nadzieję, że notacja ta zostanie zaakceptowana, a strony wiki zaktualizowane.

אלימלך שרייבר
źródło
zastanawiam się, dlaczego równania nie są wyświetlane poprawnie.
Shaohua Li