Andrew More definiuje zdobywanie informacji jako:
gdzie jest entropią warunkową . Jednak Wikipedia nazywa powyższą ilość wzajemnymi informacjami .
Z kolei Wikipedia definiuje pozyskiwanie informacji jako rozbieżność Kullbacka-Leiblera (inaczej rozbieżność informacji lub entropia względna) między dwiema zmiennymi losowymi:
gdzie jest zdefiniowane jako entropia krzyżowa .
Te dwie definicje wydają się ze sobą niespójne.
Widziałem także innych autorów mówiących o dwóch dodatkowych powiązanych pojęciach, mianowicie entropii różnicowej i względnym uzyskiwaniu informacji.
Jaka jest dokładna definicja lub związek między tymi wielkościami? Czy istnieje dobry podręcznik, który obejmuje je wszystkie?
- Zysk informacji
- Wzajemne informacje
- Krzyżowanie entropii
- Entropia warunkowa
- Entropia różniczkowa
- Względny przyrost informacji
information-theory
Amelio Vazquez-Reina
źródło
źródło
Odpowiedzi:
Myślę, że nazywanie dywergencji Kullbacka-Leiblera „zyskiem informacji” jest niestandardowe.
Pierwsza definicja jest standardowa.
EDYCJA: Jednak można również nazwać wzajemną informacją.H.( Y) - H( Y| X)
Zauważ, że nie sądzę, abyś znalazł dyscyplinę naukową, która naprawdę ma ustandaryzowany, precyzyjny i spójny schemat nazewnictwa. Więc zawsze będziesz musiał spojrzeć na formuły, ponieważ zazwyczaj dają ci lepszy pomysł.
Podręczniki: patrz „Dobre wprowadzenie do różnych rodzajów entropii” .
Również: Cosma Shalizi: Metody i techniki nauki o złożonych systemach: Przegląd, rozdział 1 (s. 33-114) w Thomas S. Deisboeck i J. Yasha Kresh (red.), Complex Systems Science in Biomedicine http: // arxiv.org/abs/nlin.AO/0307015
Robert M. Gray: Entropia i teoria informacji http://ee.stanford.edu/~gray/it.html
David MacKay: Teoria informacji, wnioskowanie i algorytmy uczenia się http://www.inference.phy.cam.ac.uk/mackay/itila/book.html
także „Co to jest„ entropia i zdobywanie informacji ”?”
źródło
Rozbieżność Kullbacka-Leibera między i jest taka sama jak wzajemna informacja, którą można łatwo uzyskać:p ( X, Y) P.( X) P( Y)
Uwaga:p ( y) = ∑xp ( x , y)
źródło
Wzajemne informacje można zdefiniować za pomocą Kullback-Liebler, ponieważ
źródło
Wydobywanie wzajemnych informacji z zestawów danych tekstowych jako funkcja do szkolenia modelu uczenia maszynowego: (zadaniem było przewidzenie wieku, płci i osobowości blogerów)
źródło
Obie definicje są poprawne i spójne. Nie jestem pewien, co wydaje ci się niejasne, gdy wskazujesz wiele punktów, które mogą wymagać wyjaśnienia.
Wspólne -entropy i Krzyż -entropy to nie to samo.
Mam nadzieję, że notacja ta zostanie zaakceptowana, a strony wiki zaktualizowane.
źródło