Odgadywanie niskiej wartości entropii przy wielu próbach

9

Załóżmy, że Alice ma rozkład μ w skończonej (ale być może bardzo dużej) domenie, takiej jak entropia (Shannon) μ jest górny ograniczony dowolnie małą stałą ε. Alice rysuje wartośćx od μ, a następnie pyta Boba (kto wie μ) zgadywać x.

Jakie jest prawdopodobieństwo sukcesu dla Boba? Jeśli można mu tylko zgadywać, wówczas można obniżyć to prawdopodobieństwo w następujący sposób: górna entropia ogranicza min-entropię, więc istnieje element, który ma prawdopodobieństwo co najmniej2ε. Jeśli Bob wybierze ten element jako przypuszczenie, jego prawdopodobieństwo powodzenia będzie2ε.

Załóżmy, że Bob może na przykład zgadywać tzgaduje, a Bob wygrywa, jeśli jedno z jego domysłów jest prawidłowe. Czy istnieje schemat zgadywania, który zwiększa prawdopodobieństwo sukcesu Boba? W szczególności, czy można wykazać, że prawdopodobieństwo awarii Boba maleje wykładniczo wraz zt?

Lub Meir
źródło

Odpowiedzi:

10

Najlepszym wyborem Boba jest odgadnięcie t wartości z największym prawdopodobieństwem.

Jeśli zamiast tego chcesz użyć entropii Rényi, Propozycja 17 w Entropies, Guessing and Cryptography Boztaşa stwierdza, że ​​prawdopodobieństwo błędu pot domysły są co najwyżej

12H2(μ)(1logtlogn)ln2(1logtlogn)H2(μ),
gdzie nto rozmiar domeny. To prawda, zależność odt jest dość zły i być może Boztaş skupił się na innym reżimie entropii.

W przypadku entropii Shannona można spróbować rozwiązać problem podwójnej optymalizacji: biorąc pod uwagę ustalone prawdopodobieństwo awarii δ, znajdź maksymalną entropię takiego rozkładu. Używając wypukłościxlogx, wiemy, że dystrybucja μ ma formę a,b,,b;b,,b,c, gdzie abc, a+(t1)b=1δ, i c=δδbb. Mamyt1+δb wartości, które uzyskują prawdopodobieństwo b. Uwarunkowane nas=δb, możemy spróbować znaleźć bco minimalizuje entropię. Dla prawidłowej wartościs, będzie to punkt wewnętrzny (w którym pochodna zniknie). Nie jestem pewien, jak uzyskać asymptotyczne szacunki przy użyciu tego podejścia.

Yuval Filmus
źródło
Dziękuję za odpowiedź! Wypróbowałem zaproponowane przez ciebie podejście optymalizacyjne, ale nie mogłem uzyskać dobrych szacunków.
Lub Meir
Cześć Yuval, po dłuższej pracy wydaje się, że to podejście optymalizacyjne daje rozwiązanie. Niestety również w tym przypadku błąd zmniejsza się tylko odwrotnie logarytmicznie w liczbie odgadnięć. Dzięki!
Lub Meir
7

Niestety nie ma dobrej odpowiedzi na twoje pytanie. John Pliam [praca doktorska, 2 artykuły z serii LNCS] jako pierwszy zauważył rozbieżność między entropią Shannona a oczekiwaną liczbą domysłów. Jego pracę dyplomową można łatwo znaleźć w Internecie. W sekcji 4.3, wybierając odpowiedni rozkład prawdopodobieństwa dlaX (zależne od arbitralnej dodatniej liczby całkowitej N), który pochodzi z podobnych do siebie drzewek huffmanów, pokazuje, że zgadując w malejącym porządku prawdopodobieństwa, trzeba zrobić więcej niż N+H(X) zgaduje, zanim osiągnie prawdopodobieństwo sukcesu 1/2.

Jest to jeden z powodów, dla których ludzie badali entropie Renyi.

kodlu
źródło