Załóżmy, że Alice ma rozkład w skończonej (ale być może bardzo dużej) domenie, takiej jak entropia (Shannon) jest górny ograniczony dowolnie małą stałą . Alice rysuje wartość od , a następnie pyta Boba (kto wie ) zgadywać .
Jakie jest prawdopodobieństwo sukcesu dla Boba? Jeśli można mu tylko zgadywać, wówczas można obniżyć to prawdopodobieństwo w następujący sposób: górna entropia ogranicza min-entropię, więc istnieje element, który ma prawdopodobieństwo co najmniej. Jeśli Bob wybierze ten element jako przypuszczenie, jego prawdopodobieństwo powodzenia będzie.
Załóżmy, że Bob może na przykład zgadywać zgaduje, a Bob wygrywa, jeśli jedno z jego domysłów jest prawidłowe. Czy istnieje schemat zgadywania, który zwiększa prawdopodobieństwo sukcesu Boba? W szczególności, czy można wykazać, że prawdopodobieństwo awarii Boba maleje wykładniczo wraz z?
źródło
Niestety nie ma dobrej odpowiedzi na twoje pytanie. John Pliam [praca doktorska, 2 artykuły z serii LNCS] jako pierwszy zauważył rozbieżność między entropią Shannona a oczekiwaną liczbą domysłów. Jego pracę dyplomową można łatwo znaleźć w Internecie. W sekcji 4.3, wybierając odpowiedni rozkład prawdopodobieństwa dlaX (zależne od arbitralnej dodatniej liczby całkowitej N ), który pochodzi z podobnych do siebie drzewek huffmanów, pokazuje, że zgadując w malejącym porządku prawdopodobieństwa, trzeba zrobić więcej niż N+H(X) zgaduje, zanim osiągnie prawdopodobieństwo sukcesu 1/2 .
Jest to jeden z powodów, dla których ludzie badali entropie Renyi.
źródło