Odwrotność do nierówności Fano?

10

Nierówność Fano można wyrazić w wielu formach, a jedna szczególnie przydatna wynika (z niewielką modyfikacją) Oded Regev :

Niech X będzie zmienną losową, a Y=g(X) gdzie g() jest procesem losowym. Załóżmy, że istnieje procedura f która dla y=g(x) może zrekonstruować x z prawdopodobieństwem p . Następnie

I(X;Y)pH(X)H(p)

Innymi słowy, jeśli uda mi się zrekonstruować, w systemie jest wiele wzajemnych informacji.

Czy istnieje „rozmowa” z nierównością Fano: coś z formy

„Biorąc pod uwagę kanał z wystarczającą ilością wzajemnych informacji, istnieje procedura rekonstrukcji danych wyjściowych z błędem, który zależy od wzajemnej informacji”

Byłoby zbyt wiele, aby oczekiwać, że ta procedura byłaby również skuteczna, ale byłoby również interesujące zobaczyć (naturalne) przykłady, w których rekonstrukcja istnieje, ale musi być nieefektywna.

Suresh Venkat
źródło

Odpowiedzi:

12

P(y)yxPr[X=xY=y]maxxPr[xY=y]2H(X|Y=y)H(XY=y)XY=yH(X)H1(X)H1(X)XH(X|Y=y) pod względem wzajemnej informacji .I(X:Y)

Napisz . Używając wspomnianej wyżej nierówności, lub .I(X:Y)=H(X)H(X|Y)=H(X)Ey[H(XY=y)]I(X:Y)H(X)Ey[H(XY=y)]Ey[H(XY=y)]H(X)I(X:Y)

Prawdopodobieństwo, że procedura się powiedzie, gdy i są wybierane losowo, to , co według wklęsłości wynosi co najmniej . Zatem prawdopodobieństwo powodzenia procedury wynosi co najmniej .XYEy[2H(XY=y)]2Ey[H(XY=y)]2I(X:Y)H(X)

Ta procedura jest optymalna: biorąc pod uwagę dowolną procedurę losowości , prawdopodobieństwo powodzenia wynosi , który jest zmaksymalizowany punktowo, gdy deterministycznie wyprowadza najbardziej prawdopodobne .PEy[xPr(X=xY=y)Pr(P(y)=x)]P(y)x

Henry Yuen
źródło
1
Czy istnieje więc stwierdzenie ilościowe, które jest odwrotnością nierówności Fano wynikającej z tego argumentu?
mobius dumpling
Co rozumiesz przez ilościowy? Argument, który podałem powyżej, powinien brzmieć: „Biorąc pod uwagę kanał z wzajemną informacją , istnieje procedura rekonstrukcji z błędem co najwyżej ”. I(X:Y)12I(X:Y)H(X)
Henry Yuen,
2

Dobra odpowiedź i dowód. Tak więc granicę w odpowiedzi można również przepisać ponieważ z definicji. Zgodnie z moją najlepszą wiedzą pojawiło się to w IEEE ISIT 1994, w przemówieniu Baumera.

perr12I(X;Y)H(X)=12H(X|Y),(1)
I(X;Y)=H(X)H(X|Y)

W podobny sposób można uzyskać gdzie jest entropia Renyi rzęduTutaj więc granica (2) jest ciaśniejsza niż (1).

perr1yYPY(y)2H2(X|Y),(2)
Hα(Z)=11α(zZPZ(z)α)
α(0,1)(1,).α=2,
kodlu
źródło