Zasada Minimax Yao dotycząca algorytmów Monte Carlo

22

Słynny Yao Minimax Zasada stwierdza zależność między złożonością i dystrybucyjnej randomizowanym złożoności. Niech P być problemu ze skończonego zbioru wejść i skończonego zbioru deterministycznego algorytmu rozwiązania . Niech także oznacza rozkład wejściowy, a niech oznacza rozkład prawdopodobieństwa na . Następnie zasada głosi: XAPDRA

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.
Dowód ten wynika bezpośrednio z twierdzenia von Neumanna o grach o sumie zerowej.

Głównie zasada Yao dotyczy tylko algorytmów Las Vegas , ale można ją uogólnić na algorytmy Monte Carlo w następujący sposób.

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]
gdzie costϵ(,) oznacza koszt algorytmów Monte Carlo, które mylą prawdopodobieństwo co najwyżej ϵ .

W oryginalnym artykule Yao związek między algorytmami Monte Carlo podano w Twierdzeniu 3 bez dowodu. Jakaś wskazówka na potwierdzenie tego?

Federico Magallanez
źródło

Odpowiedzi:

6

To tylko rozszerzony komentarz do odpowiedzi Marcosa, z wykorzystaniem jego zapisu. Nie jestem w stanie śledzić szczegółów jego argumentu, a ten poniżej jest dość krótki i łatwy.

Uśredniając,

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

Powyższy fakt i nierówność Markowa implikują .Aβ(2λ)q(A)1/2

Otrzymujemy więc:

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)
Sasho Nikolov
źródło
8

Spróbuję tego. Użyję oryginalnej notacji Yao. W ten sposób łatwiej będzie kontrastować z jego opracowaniem i jego definicjami.

Niech skończonym zestawem danych wejściowych, a A 0 będzie skończonym zestawem deterministycznych algorytmów, które mogą nie dać poprawnej odpowiedzi dla niektórych danych wejściowych. Niech także ϵ ( A , x ) = 0, jeśli A daje poprawną odpowiedź dla x , a ϵ ( A , x ) = 1 w przeciwnym razie. Oznacz również przez r ( A , x ) liczbę zapytań wykonanych przez A na wejściu x lub równoważnie głębokość AIA0ϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxAdrzewo decyzyjne.

Koszt średni: Biorąc pod uwagę rozkład prawdopodobieństwa na I , średni koszt algorytmu A A 0 wynosi C ( A , d ) = x I d ( x ) r ( A , x ) .dIAA0C(A,d)=xId(x)r(A,x)

Złożoność dystrybucyjna: Niech . Dla dowolnego rozkładu d na wejściach, niech β ( λ ) będzie podzbiorem A 0 podanym przez β ( λ ) = { A : A A 0 , x I d ( x ) ϵ ( A , x ) λ }λ[0,1]dβ(λ)A0β(λ)={A:AA0,xId(x)ϵ(A,x)λ}. Złożoność dystrybucyjna z błędem dla problemu obliczeniowego P jest zdefiniowana jako F 1 , λ ( P ) = max d min A β ( λ ) C ( A , d ) .λPF1,λ(P)=maxdminAβ(λ)C(A,d)

tolerancja:λrozkład w rodzinie A 0 jest λ - tolerancyjny, jeśli max x IA A 0 q ( A ) ϵ ( A , x ) λ .qA0λmaxxIAA0q(A)ϵ(A,x)λ

Oczekiwany koszt: Dla algorytmu randomizowanego , niech q będzie rozkładem prawdopodobieństwa, który jest tolerancyjny dla λ na A 0 . Przewidywane koszty z R dla danego wejścia x jest E ( R , x ) = Σ 0 P ( ) R ( , x ) .RqλA0RxE(R,x)=AA0q(A)r(A,x)

Losowość złożoności: Niech . Losowa złożoność z błędem λ wynosi F 2 , λ = min R max x I E ( R , x ) .λ[0,1]λF2,λ=minRmaxxIE(R,x)

Teraz jesteśmy gotowi do rozpoczęcia działalności. To, co chcemy udowodnić, to rozkład na wejściach i losowy algorytm R (tj. Rozkład q na A 0 )dRqA0

Zasada minimów Yao dla algorytmów Montecarlo dlaÎ[0,1/2].

maxxIE(R,x)12minAβ(2λ)C(A,d)
λ[0,1/2]

Podążę za podejściem Ficha, Meyera auf der Heide, Ragde i Wigderson (patrz Lemat 4). Ich podejście nie daje charakterystyki algorytmów Las Vegas (tylko dolna granica), ale jest wystarczające do naszych celów. Z ich dowodu łatwo zauważyć, że dla każdego i IA0I

Zastrzeżenie 1. .maxxIE(R,x)minAA0C(A,d)

Aby uzyskać tam prawidłowe liczby, zrobimy coś podobnego. Biorąc pod uwagę, że rozkład prawdopodobieństwa podany przez randomizowany algorytm R jest λ- tolerancyjny na A 0 , mamy to λqRλA0 Jeśli zastąpimy rodzinę0zβ(2λ)widzimy, że

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.
A0β(2λ)

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

β(2λ)A0β(2λ)λ

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

By noting that ϵ maps to {0,1} and r maps to N and Claim 1 above, now we can safely replace the function ϵ in the inequality above by r(A,x) to obtain the desired inequality.

Marcos Villagra
źródło
Is there a short explanation for where the factor of 2 comes from?
Robin Kothari
in short, it comes from the definition of β(2λ). The summation in the definition divided by 2 is at most λ.
Marcos Villagra
something seems strange to me. by definition, maxAβ(2λ)){12xId(x),ϵ(A,x)}λ so why the min?
Sasho Nikolov
and i don't understand the last sentence. how did you make an entire argument about ϵ and then replaced it with r?
Sasho Nikolov
regarding your first question, I added more details.
Marcos Villagra