Wzajemne informacje jako prawdopodobieństwo

11

Czy wzajemna informacja nad wspólną entropią:

0I(X,Y)H(X,Y)1

być zdefiniowane jako: „Prawdopodobieństwo przekazania informacji z X do Y”?

Przepraszam, że jestem taki naiwny, ale nigdy nie studiowałem teorii informacji i staram się po prostu zrozumieć niektóre z nich.

luca maggi
źródło
1
Witamy w CV, Luca Maggi! Cóż za piękne pierwsze pytanie!
Alexis,

Odpowiedzi:

8

Miara, którą opisujesz, nosi nazwę Information Quality Ratio [IQR] (Wijaya, Sarno i Zulaika, 2017). IQR to wzajemna informacja I(X,Y) podzielona przez „całkowitą niepewność” (wspólna entropia) H(X,Y) (źródło zdjęcia: Wijaya, Sarno i Zulaika, 2017).

wprowadź opis zdjęcia tutaj

Jak opisali Wijaya, Sarno i Zulaika (2017),

zakres IQR wynosi [0,1] . Największą wartość (IQR = 1) można osiągnąć, jeśli DWT może doskonale zrekonstruować sygnał bez utraty informacji. W przeciwnym razie najniższa wartość (IQR = 0) oznacza, że ​​MWT nie jest kompatybilny z oryginalnym sygnałem. Innymi słowy, zrekonstruowany sygnał ze szczególnym MWT nie może przechowywać istotnych informacji i jest całkowicie różny od oryginalnych charakterystyk sygnału.

Można to zinterpretować jako prawdopodobieństwo, że sygnał zostanie doskonale zrekonstruowany bez utraty informacji . Zauważ, że taka interpretacja jest bliższa subiektywistycznej interpretacji prawdopodobieństwa , niż tradycyjnej interpretacji częstokroć.

Jest to prawdopodobieństwo zdarzenia binarnego (rekonstruowanie informacji vs. Dzieli wszystkie właściwości prawdopodobieństwa zdarzeń binarnych. Ponadto entropie mają wiele innych właściwości z prawdopodobieństwami (np. Definicja entropii warunkowych, niezależność itp.). Wygląda więc na prawdopodobieństwo i podobne szarlatany.


Wijaya, DR, Sarno, R. i Zulaika, E. (2017). Współczynnik jakości informacji jako nowa miara dla wyboru falki macierzystej. Chemometrics and Intelligent Laboratory Systems, 160, 59-71.

Tim
źródło
1
AΩI(X,Y)H(X,Y)X:=XI(A),Y:=YI(A)I
Moje pytanie dotyczy części twojej odpowiedzi, a nie samodzielnego pytania. Sugerujesz, żebym otworzył nowe pytanie i umieściłem link do twojej odpowiedzi?
Hans
I(X,Y)H(X,Y)
1
(Ω,F)XYXY
@ Hans Stwierdziłem wyraźnie, że jest to zgodne z aksjomatami, ale trudno powiedzieć, jakie to dokładnie byłoby. Sugerowana przeze mnie interpretacja dotyczy prawdopodobnie rekonstrukcji sygnału. To nie jest rozkład prawdopodobieństwa X lub Y. Myślę, że mógłbyś głębiej zinterpretować i zrozumieć. Pytanie brzmiało, czy można to interpretować jako prawdopodobieństwo, a odpowiedź brzmiała formalnie tak.
Tim
2

(Ω,F,P,X,Y)Θ:=(Ω,F,P,X,Y)Ω~ΘΩ~IQR(Ω,F,P,X,Y)

[0,1]ΘΩ~:={a,b}F~:=2Ω~P~(a):=IQR(Θ)Θ

Hans
źródło
(xi,yi)
Θ:=(Ω,F,P,X,Y)
Tak jest również w przypadku korzystania ze skomplikowanej sieci neuronowej z funkcją aktywacji sigmoidalnej na końcu. Czy możesz udowodnić, że dane wyjściowe są prawdopodobieństwem w kategoriach metryczno-teoretycznych ..? Często jednak interpretujemy to jako prawdopodobieństwo.
Tim
[0,1]AP(A):=μ(f(A))μRf
Przepraszam, ale nigdy nie uważałem tego rodzaju dyskusji i teorii miary za interesującą, więc wycofam się z dalszej dyskusji. Nie rozumiem też tutaj twojego sensu, zwłaszcza że twój ostatni akapit wydaje się mówić dokładnie to samo, co mówiłem od samego początku.
Tim