Jaka jest najszybciej znana symulacja BPP z wykorzystaniem algorytmów Las Vegas?

10

BPP iZPP to dwie podstawowe probabilistyczne klasy złożoności.

BPP jest klasą języków ustaloną przez probabilistyczne algorytmy Turinga w czasie wielomianowym, w których prawdopodobieństwo zwrotu nieprawidłowej odpowiedzi przez algorytm jest ograniczone, tzn. Prawdopodobieństwo błędu wynosi maksymalnie13 (zarówno dla wystąpień TAK, jak i NIE).

Z drugiej strony, algorytmy ZPP można postrzegać jako te algorytmy probabilistyczne, które nigdy nie zwracają nieprawidłowej odpowiedzi, ilekroć zwracają odpowiedź, jest poprawna. Jednak ich czas działania nie jest ograniczony wielomianem, działają one w oczekiwanym wielomianu.

Niech ZPTime(f) będzie klasą języka ustaloną przez algorytmy probabilistyczne o zerowym prawdopodobieństwie błędu i oczekiwanym czasie działania f . Są one również określane jako algorytmy Las Vegas i ZPP=ZPTime(nO(1)) .

Moje pytanie brzmi: jaka jest najlepiej znana symulacja algorytmów BPP wykorzystaniem algorytmów Las Vegas? Czy możemy je zasymulować w oczekiwanym podwykładniczym czasie? Czy istnieje jakaś poprawa w stosunku do trywialnej symulacji brutalnej siły, która wymaga czasu wykładniczego?

Bardziej formalnie, czy wiemy, czy BPPZPTime(2O(nϵ)) czy BPPZPTime(2nnϵ) dla niektórych ϵ>0 ?

echuly
źródło
3
Co to jest n, długość wejścia? Dlaczego akceptujemy za ? 2n
domotorp
1
to to samo, co 2 p o l y ( n ) . 2poly(n)nϵ2poly(n)
Emil Jeřábek
2
Uważam to pytanie za dość interesujące. Zredagowałem pytanie, aby uczynić je bardziej czytelnym i precyzyjnym. Możesz edytować dalej. PS: Ja domyślam się, że pewnie chcieli uwzględniać wielomianowo wiele losowych bitów wykorzystywanych przez algorytm BPP jako parametr do czasu symulacji, ale jak zaznacza Emil co napisałaś daje . Jeśli chcesz, musisz zastąpić BPP określoną klasą algorytmów probabilistycznych z błędem ograniczonym, które mają parametr liczby losowych bitów używanych przez algorytm. 2poly(n)
Kaveh
Możesz zapytać, czy możemy symulować algorytm BPP, który wykorzystuje losowych bitów w Z P T i m e ( 2 r ( n ) - n ϵ n O ( 1 ) ), ponieważ symulacja siły brutalnej działa w 2 r ( n ) n O ( 1 ) czas. r(n)ZPTime(2r(n)nϵnO(1))2r(n)nO(1)
Kaveh

Odpowiedzi:

13

Najpierw zauważyć, że jeżeli dla pewnej stałej C , a następnie B P PN E X P . (Dowód niedeterministycznej hierarchii czasu.) Zatem udowodnienie takiego włączenia byłoby znaczące, nie tylko dlatego, że jest ulepszoną symulacją, ale także przyniosłoby pierwszy postęp w losowych dolnych granicach czasu od dziesięcioleci.BPPZPTIME[2nc]cBPPNEXP

Następnie rozważyć klasy PromiseBPP , na której się następujący problem jest " -hard":PromiseBPP

Układ Zbliżanie Prawdopodobieństwo Problem (CAPP) Biorąc pod uwagę układ , wydajność prawdopodobieństwo akceptacja C do w 1 / 6 czynnik dodatku.CC1/6

Wyniki Impagliazzo, Kabanets i Wigderson 2002 sugerują, że algorytm czasu zerowego błędu dla CAPP (gdzie n jest rozmiarem C ) oznaczałby N E X PP / p o l y . W STOC'10 rozszerzyłem to, aby pokazać: zakładając, że dla każdego C z k bitów wejściowych i rozmiarem n , można obliczyć CAPP niedeterministycznie (więc wystarczy błąd zerowy) w 2 k - ω ( log k ) p o l y (2nεnCNEXPP/polyCkn czas, a następnie N E X PP / p o l y . Oznacza to, że z pewnością istnieją problemy, które można obliczać z przypadkowością błędu dwustronnego, dla którego algorytmy zerowego błędu, które nawet nieznacznie pokonały wyczerpujące wyszukiwanie, oznaczałyby dolne granice obwodu. Uważam, że należy to interpretować jako możliwą metodę udowodnienia dolnych granic; twój przebieg może się różnić.2kω(logk)poly(n)NEXPP/poly

Należy zauważyć, że nawet okazuje jest również otwarty, i udowodnienie , że również oznaczać dolnych granic: w Kabanets i Impagliazzo 2004, jeśli badanie wielomian tożsamość (a C O R P problemem) jest w Z P T I M E [ 2 n ε ] dla wszystkich ε > 0 , wówczas mamy dolne granice dla Stałego lub N E X PRPZPTIME[2nε]coRPZPTIME[2nε]ε>0NEXP. Ostatnio (nadchodzące w STOC'13) bezwarunkowo udowodniłem, że albo lub R T I M E [ 2 n ] ma obwody o rozmiarze n c , bazując na metodzie Kabanetów „łatwego świadka”. Oznacza to dwie rzeczy:BPPioZPTIME[2nε]/nεRTIME[2n]nc

  1. Jest tak, że dla wszystkich ε > 0 , R P jest bezwarunkowo I O Z P T I M E [ 2 n ε ] / n c - to jest najlepszy bezwarunkowego derandomization z R P / B P P w Z P P , które znamy do tej pory.cε>0RPioZPTIME[2nε]/ncRP/BPPZPP

  2. Aby rozpocząć uzyskiwanie interesujących symulacji wykładniczych , „tylko” musisz założyć, że R T I M E [ 2 n ] nie ma obwodów o stałej wielkości wielomianowej.BPPRTIME[2n]

Ryan Williams
źródło
Dzięki Niel za poświęcenie czasu na uczynienie mojej odpowiedzi czytelną :)
Ryan Williams,
2
Ryan, myślę, że mam zamiar zadać bardzo głupie pytanie, ale proszę bardzo: w pierwszym zdaniu, dlaczego potrzebujesz „dla wszystkich ”? Czy podzbiór BPP ZPTIME (2 ^ (n ^ c)) dla niektórych stałych c nie sugeruje podzbioru BPP RTIME (2 ^ (n ^ c)), a zatem NTIME (2 ^ (n ^ c)), więc BPP jest nie jest równy NEXP lub w inny sposób NTIME (2 ^ (2n ^ c)) jest podzbiorem NTIME (2 ^ (n ^ c))? ϵ
Sasho Nikolov
1
Wcale nie głupie - w rzeczy samej, dla niektórych c wystarczy dla B P P N E X P , dziękuję za zwrócenie na to uwagi. Jednak dla innych konsekwencji niezbędne są algorytmy podwykładnicze. BPPNTIME(2nc)cBPPNEXP
Ryan Williams
Ryan: Jeśli chciałbym zrozumieć twój artykuł, z jakimi książkami na temat złożoności obwodów polecasz się zapoznać?
T ....
Cześć Arul, na szczęście Bill Gasarch zadał mi to pytanie i zamieścił następującą stronę z linkami: cs.umd.edu/~gasarch/ryan/ryan.html
Ryan Williams
8

To zależy od tego, jakie założenia chcesz przyjąć.

W pewnych założeniach twardość, czyli , można uzyskać, że P = B P P . Oznacza to w szczególności, że B P P = Z P P , a zatem że każdy język L B P P jest akceptowany przez maszynę z Las Vegas (patrz „P = BPP, chyba że E ma obwody subeksponencjalne: Derandomizacja XOR Lemma”, autor: Impagliazzo i Wigderson).ESIZE(2εn)P=BPPBPP=ZPPLBPP

Możesz również przyjąć łagodniejsze założenie twardości, a mianowicie, że , i uzyskać B P P = Z P P (patrz Lemat 46 w „W poszukiwaniu łatwy świadek: czas wykładniczy a probabilistyczny czas wielomianowy ”(Impagliazzo, Kabanets i Wigderson).ZPEioDTIME(2εn)BPP=ZPP

Lub Meir
źródło
4

Pomijając wszelkie postępy w derandomizacji, wydaje mi się, że wymóg, aby maszyna z Las Vegas nie popełniała błędów, jest kluczowy, tak więc losowość w tym przypadku jest niewielka lub żadna.

W przypadku języka BPP ustalonego przez odpowiedni algorytm A , który działa na dane wejściowe x { 0 , 1 } n i ciąg losowy r { 0 , 1 } N ( n ) reprezentujący jego losowe wybory, kryterium błędu zerowego implikuje że maszyna z Las Vegas musi upewnić się, który z dwóch przypadków Pr r ( A  akceptuje  ( x , r ) ) 2LAx{0,1}nr{0,1}N(n) chwyty. Jeśli podano żadnych dalszych informacji oA, to jest zasadniczo problemu obietnica wyrocznia: podany wyrocznią"obliczanieA"(r)=A(x,r), a ze względu na obietnica'wydajności jedno wyjścieA{0,1}dla co najmniej dwa razy więcej danych wejściowych niż przeciwne wyjście1-a, określ, które wyjście jest bardziej powszechne.

Prr(A accepts (x,r))23orPrr(A accepts (x,r))13
AAA(r)=A(x,r)Aa{0,1}1a

Chociaż Maszyna do Las Vegas może wykorzystywać losowe techniki, jeśli rzeczywiście jesteśmy zmuszeni traktować jako wyrocznię, możemy zobaczyć, że jedyną dostępną strategią dla maszyny do Las Vegas jest przeprowadzenie dogłębnej (choć nie wyczerpującej) ankiety dotyczącej losowe ciągi r , aby zobaczyć, jaka odpowiedź jest podana dla każdego. Można być pewnym tylko, czy znajdzie więcej niż 2 N ( n )Ar różne ciągi r, z których wszystkie dają ten sam wynik; w przeciwnym razie, z małym (ale niezerowym!) prawdopodobieństwem, może być pecha i uzyskać niereprezentatywną próbkę możliwych wyników. Aby uzyskać błąd zerowy, musi pobrać próbkę co najmniej 2 N ( n )2N(n)/3r wejścia r .2N(n)/3r

Ponieważ maszyna z Las Vegas musi kontrolować przynajmniej stały ułamek wszystkich możliwych losowych ciągów , asymptotycznie nie jesteśmy w lepszej sytuacji niż gdybyśmy testowali deterministycznie wszystkie możliwe ciągi losowe. Nie uzyskujemy żadnej asymptotycznej przewagi w symulacji algorytmów BPP losowo w ustawieniu zerowego błędu, poza tym, co możemy zrobić deterministycznie za pomocą brutalnej siły.r

Należy zauważyć, że ten sam argument powoduje rozdzielaniu oracle pomiędzy BPP i ZPP , czyli  jest wyrocznią tak, że Z P PB P P ponieważ ZPP algorytm bierze wykładniczy czasu podczas BPP algorytm może rozwiązać pytanie wyrocznia w jednym zapytaniu i powodzenie z ograniczonym błędem. Nie mówi jednak nic więcej niż to, co już podejrzewasz (że narzut symulacji może być gorszy niż wielomian) ani że asymptotyki są tak samo złe, jak naiwna deterministyczna symulacja.A

ZPPABPPA
Niel de Beaudrap
źródło
popraw mnie, jeśli się mylę: podajesz intuicyjne uzasadnienie, dlaczego derandomizacja wydaje się niemożliwa, ale wiemy, że przy pewnych rozsądnych założeniach BPP, ZPP i P są tym samym. aby intuicja niekoniecznie była dobra
Sasho Nikolov
1
Ani trochę. Derandomizacja prawdopodobnie byłaby wglądem w to, jak symulować BPP przez P , prawda? Właśnie opisuję, w jaki sposób, jeśli chce bezwarunkowych wyników, które nie wykorzystują struktury samego algorytmu, równie dobrze może przeprowadzić symulację deterministyczną, jak przypadkową z zerowym błędem. Czy może coś jest nie tak z tym wyjaśnieniem?
Niel de Beaudrap
1
myślę, że wszystko, co mówisz, to to, że naiwna symulacja brutalnej siły BPP przez ZPP nie jest dużo szybsza niż naiwna symulacja brutalnej siły BPP przez P., ale nie widzę, co to ma pokazać. dla mnie jest to tak, jakby ktoś pytał „jaki jest najszybszy algorytm znajdowania maksymalnego dopasowania” i uzyskał odpowiedź „dobrze, nie rozumiejąc struktury dopasowań, to jest czas wykładniczy”. pytanie brzmi, czy istnieje jakiś znany wgląd w strukturę BPP, która umożliwia wydajną symulację ZPP
Sasho Nikolov
1
@SashoNikolov: Tak naprawdę to nie miał być głęboki wgląd. Z brzmienia pytania wydawało mi się, że jest to granica dla migracji do CS.SE. Postanowiłem odpowiedzieć na to dosłownie, to znaczy: o ile wiemy , najbardziej efektywny oczekiwany czas działania maszyny Las Vegas, która akceptuje język L∈BPP, nie jest dużo lepszy niż maszyna deterministyczna, która bada możliwości brutalnej siły. Odpowiedzi, które mówią, że może być jakaś wielomianowa górna granica, jeśli pewne warunki się utrzymają, są doskonałe i zawierają wiele informacji i głosuję za to; ale odpowiadam na aktualne pytanie.
Niel de Beaudrap,
1
Myślę, że to ładna odpowiedź (również bardziej czytelna teraz po edycji). Nie mamy wyniku warunkowego, takiego jak „P = ZPP oznacza P = BPP” lub „ZPP = BPP oznacza P = BPP”, więc nadal jest możliwe, że możemy symulować BPP za pomocą algorytmów ZP szybciej niż przy użyciu algorytmów deterministycznych. Jednak wynik relatywizacji wydaje się sugerować, że nie może się to zdarzyć za pomocą symulacji relatywizacyjnej, czy rozumiem poprawnie?
Kaveh