Większość z nas zna - lub przynajmniej słyszała - entropię Shannona zmiennej losowej, oraz wszystkie powiązane miary teoretyczne, takie jak entropia względna, wzajemna informacja i tak dalej. Istnieje kilka innych miar entropii, które są powszechnie stosowane w informatyce teoretycznej i teorii informacji, takich jak min-entropia zmiennej losowej.
Zacząłem częściej oglądać tak zwane entropie Renyi, gdy przeglądam literaturę. Uogólniają one entropię Shannona i entropię minową i faktycznie zapewniają całe spektrum miar entropicznych zmiennej losowej. Pracuję głównie w obszarze informacji kwantowej, w której kwantowa wersja entropii Renyi jest również rozważana dość często.
Nie do końca rozumiem, dlaczego są przydatne. Słyszałem, że często łatwiej jest pracować analitycznie, niż powiedzmy entropię Shannon / von Neumann lub min-entropię. Ale można je również powiązać z entropią Shannona / entropią min.
Czy ktoś może podać przykłady (klasyczne lub kwantowe), gdy stosowanie entropii Renyi jest „właściwą rzeczą”? To, czego szukam, to jakiś „mentalny haczyk” lub „szablon” pozwalający dowiedzieć się, kiedy mogę użyć entropii Renyi.
Dzięki!
źródło
Odpowiedzi:
Rozważmy próbując zgadnąć atomowych do nieznanej zmiennej losowej rozpostartej na jakiś skończony zbiór A . W entropii Shannona zakłada się, że możesz przesyłać zapytania krok po kroku, tzn. Jeśli A = { 1 , … , N } możesz zapytać:X A. A={1,…,N}
Czy ?X∈{1,…,N/2} (zakładaj parzysty lub użyj funkcji podłogi / sufitu)N
W przypadku szyfrowania i niektórych scenariuszy dekodowania nie jest to realistyczne. Próbując odgadnąć nieznane hasło, musisz wykonać zapytania atomowe, tzn. Zapytać, czy jest określoną wartością.X
Okazuje się, że oczekiwana liczba zapytań do odgadnięcia zmienną losową potem zależy ściśle od entropii Renyi zamówienia 1 / 2. Tak samo niektóre wyższe momenty. Na przykładX 1/2.
a licznik jest zasadniczo logarytm Renyi entropii rzędu1/2. Można także dokonać Shannon entropii bardzo duży podczas Renyi entropia i oczekiwanie na liczbę prób jest bardzo mała. Jeśli polegałeś na entropii Shannona dla bezpieczeństwa, miałbyś wtedy kłopoty.
Zobacz także powiązane pytanie Zgadywanie niskiej wartości entropii przy wielu próbach
Niektóre referencje:
źródło
Renyi entropia jest analogiczna, w pewnym sensie, do -norms, więc najpierw przypomnieć Załóżmy, dlaczego te normy są użyteczne.ℓp
Załóżmy, że mamy wektor liczb . Chcemy mieć jeden numer, który reprezentuje w pewnym sensie, w jaki sposób typowy element o wyglądać.a∈Rn a
Jednym ze sposobów jest pobranie średniej liczb w , która z grubsza odpowiada normie ℓ 1 : E 1 ≤ i ≤ n [ | I | ] . Jest to często przydatne, ale w przypadku niektórych aplikacji ma następujące problemy: Po pierwsze, norma ℓ 1 nie daje nam dobrej górnej granicy największego elementu a , ponieważ jeśli jest jeden duży element i wiele zer, ℓ 1 norma będzie znacznie mniejsza niż największy element. Z drugiej strony ℓ 1a ℓ1 E1≤i≤n[|ai|] ℓ1 a ℓ1 ℓ1 norma również nie daje nam dobre związanie na jak małe elementy są, na przykład, ile zer ma - ten problem występuje w dokładnie taki sam scenariusz jak poprzednio.a a
Oczywiście, gdy elementy dużo sprzeczności, tak jak w scenariuszu skrajnym jak powyżej, żadna ilość może dać rozwiązać oba problemy powyżej. Mamy kompromis. Na przykład, jeśli chcemy poznać tylko największy element, możemy zastosować normę ℓ ∞ , ale wtedy utracimy wszystkie informacje o mniejszych elementach. Jeśli chcemy liczby zer, możemy spojrzeć na normę ℓ 0 , która jest tylko rozmiarem wsparcia a .a ℓ∞ ℓ0 a
Powodem do rozważenia norm jest to, że dają nam one ciągły kompromis między dwiema skrajnościami. Jeśli chcemy uzyskać więcej informacji na temat dużych elementów, przyjmujemy, że p jest większe i odwrotnie.ℓp p
To samo dotyczy entropii Renyi: entropia Shanon jest jak normą - mówi nam coś o „typowej” prawdopodobieństwa elementu, ale nic o wariancji lub skrajnościami. Minimalna entropia daje nam informacje o elemencie z największym prawdopodobieństwem, ale traci wszystkie informacje o reszcie. Rozmiar podpory daje drugą skrajność. Entropie Renyi dają nam ciągły kompromis między dwiema skrajnościami.ℓ1
Na przykład, wielokrotnie entropia Renyi-2 jest przydatna, ponieważ z jednej strony jest bliska entropii Shanona, a zatem zawiera informacje o wszystkich elementach w rozkładzie, a z drugiej strony daje więcej informacji o elementach o największej prawdopodobieństwo. W szczególności wiadomo, że granice entropii Renyi-2 dają granice min-entropii, patrz np. Załącznik A tutaj: http://people.seas.harvard.edu/~salil/research/conductors-prelim .ps
źródło
Entropia Renyi (rzędu 2) jest przydatna w kryptografii do analizy prawdopodobieństwa kolizji.
Przypomnijmy, że entropia Renyi rzędu 2 losowej zmiennej jest podana przezX
Okazuje się, że pozwala zmierzyć prawdopodobieństwo, że dwie wartości narysowane zgodnie z rozkładem X będą takie same („zderzają się”): prawdopodobieństwo to wynosi dokładnie 2 - H 2 ( X ) . Po losowaniu n razy z tego rozkładu oczekiwana liczba kolizji między tymi n losowaniami wynosi C ( n , 2 ) 2 - H 2 ( X ) .H2(X) X 2−H2(X) n n C(n,2)2−H2(X)
Fakty te są przydatne w kryptografii, w której kolizje mogą czasem stanowić problem i umożliwiają ataki.
W celu analizy innych zastosowań w kryptografii polecam następującą rozprawę doktorską:
Christian Cachin. Miary Entropii i bezwarunkowe bezpieczeństwo w kryptografii . Rozprawa doktorska, ETH Zurich, maj 1997.
źródło
Ta inna odpowiedź stackexchange i ten post na blogu mogą być bardzo pomocne, aby szybko zapoznać się z podstawowym przykładem,
/physics/73424/deriving-entanglement-entropy-from-renyi-entropy
https://johncarlosbaez.wordpress.com/2011/02/10/rnyi-entropy-and-free-energy/
Roughly speaking Renyi entropies know about the excited states of a quantum system but the entanglement entropy knows about the ground states. WARNING: This intuition could be terribly crude but might just be a good "mental hook" :D I would be VERY happy to know of a better and precise way to say this!
One can think of calculating the entanglement entropyS1 (which is a more physical quantity) as the singular limit of calculating the Renyi entropies (Sq for each q∈Z+ ). But this limit S1=limitq→1Sq is terribly badly defined. So often the idea is that one can calculate Sq at an arbitrary integer value and then do an analytic continuation of that to q∈R and then try to define taking of the q→1 limit. (though always q∈R , this I call "analytic" continuation because often enough one needs to do the interpolation via contours in the complex plane - and the continuation can depend on what contours one chooses through the poles and branch-cuts of the Sq that one started with)
At integral values ofq>1 typically there is a always a very well-defined construction in terms of some integration of some function on some q− branched manifold. After one has done such an integration one happily forgets about the manifold used and just tries to do the analytic continuation parametrically in the variable q .
There are always a lot of issues about existence and well-posedness when one tries to do these anayltic continuations - but for someone like me who is brought up on a daily diet of Feynman path-integrals its a very common issue to deal with and we have a lot of tools to address these. Three nice papers to look into for these issues are, http://arxiv.org/pdf/1306.5242.pdf, http://arxiv.org/pdf/1402.5396.pdf, http://arxiv.org/pdf/1303.7221.pdf (the last of these papers might be an easier starting point) This presentation might also help, https://www.icts.res.in/media/uploads/Talk/Document/Tadashi_Takayanagi.pdf
What Renyi entropy says in terms of quantum complexity theory might be an exciting question! Can one think of the Renyi index as somehow parameterizing a hierarchy of complexity classes? That should be fun if true! Do let me know :)
źródło
Renyi entropy has found its way into definitions of quantitative information flow, an area or security research. See G. Smith's survey paper.
źródło