Czy wzajemna informacja nad wspólną entropią:
być zdefiniowane jako: „Prawdopodobieństwo przekazania informacji z X do Y”?
Przepraszam, że jestem taki naiwny, ale nigdy nie studiowałem teorii informacji i staram się po prostu zrozumieć niektóre z nich.
information-theory
mutual-information
luca maggi
źródło
źródło
Odpowiedzi:
Miara, którą opisujesz, nosi nazwę Information Quality Ratio [IQR] (Wijaya, Sarno i Zulaika, 2017). IQR to wzajemna informacjaja( X, Y) podzielona przez „całkowitą niepewność” (wspólna entropia) H.( X, Y) (źródło zdjęcia: Wijaya, Sarno i Zulaika, 2017).
Jak opisali Wijaya, Sarno i Zulaika (2017),
Można to zinterpretować jako prawdopodobieństwo, że sygnał zostanie doskonale zrekonstruowany bez utraty informacji . Zauważ, że taka interpretacja jest bliższa subiektywistycznej interpretacji prawdopodobieństwa , niż tradycyjnej interpretacji częstokroć.
Jest to prawdopodobieństwo zdarzenia binarnego (rekonstruowanie informacji vs. Dzieli wszystkie właściwości prawdopodobieństwa zdarzeń binarnych. Ponadto entropie mają wiele innych właściwości z prawdopodobieństwami (np. Definicja entropii warunkowych, niezależność itp.). Wygląda więc na prawdopodobieństwo i podobne szarlatany.
Wijaya, DR, Sarno, R. i Zulaika, E. (2017). Współczynnik jakości informacji jako nowa miara dla wyboru falki macierzystej. Chemometrics and Intelligent Laboratory Systems, 160, 59-71.
źródło
źródło