To pytanie jest inspirowane koszulką Georgia Tech Al Algorytmy i Randomness Center , która pyta „Randomize or not ?!”
Istnieje wiele przykładów, w których randomizacja pomaga, szczególnie podczas działania w środowiskach przeciwnych. Istnieją również ustawienia, w których losowanie nie pomaga ani nie boli. Moje pytanie brzmi:
Jakie są ustawienia, kiedy losowanie (w jakiś pozornie rozsądny sposób) faktycznie boli?
Nie krępuj się definiować „ustawień” i „boli” w szerokim zakresie, czy to pod względem złożoności problemu, możliwych do udowodnienia gwarancji, współczynników aproksymacyjnych czy czasu działania (spodziewam się, że czas działania będzie zawierał bardziej oczywiste odpowiedzi). Im ciekawszy przykład, tym lepiej!
randomness
big-picture
randomized-algorithms
Lew Reyzin
źródło
źródło
Odpowiedzi:
Oto prosty przykład z teorii gier. W grach, w których istnieją zarówno czyste, jak i mieszane równowagi Nasha, mieszane są często znacznie mniej naturalne i znacznie „gorsze”.
Wiadomość na wynos: randomizacja może zaszkodzić koordynacji.
źródło
Oto prosty przykład z dziedziny algorytmów rozproszonych.
Zazwyczaj przypadkowość bardzo pomaga. Randomizowane algorytmy rozproszone są często łatwiejsze do zaprojektowania i są szybsze.
Jeśli jednak masz szybki deterministyczny algorytm rozproszony, możesz mechanicznie przekonwertować go [ 1 , 2 ] na szybki algorytm samostabilizujący się . Zasadniczo otrzymasz bardzo silną wersję odporności na uszkodzenia za darmo (przynajmniej jeśli wąskim gardłem jest liczba rund komunikacji). Możesz uprościć projektowanie algorytmu, koncentrując się na bezbłędnych synchronicznych sieciach statycznych, a konwersja da Ci odporny na błędy algorytm, który może obsługiwać asynchroniczne sieci dynamiczne.
Ogólnie taka konwersja nie jest znana w przypadku randomizowanych algorytmów rozproszonych.
źródło
Pozwól mi najpierw wprowadzić problem dotyczący losowości:
To pytanie filozoficzne jest zarówno kontrowersyjne, jak i niezwiązane z kontekstem tutaj. Użyłem go jednak jako ostrzeżenia, ponieważ nadchodząca odpowiedź będzie kontrowersyjna, jeśli ktoś zagłębi się zbyt głęboko w powyższe pytanie.
Twierdzenie Shannona – Hartleya opisuje pojemność kanału komunikacyjnego w obecności hałasu. Szum zmienia się z 0 na 1 i odwrotnie, z pewnym z góry określonym prawdopodobieństwem.
Gdyby kanał zachowywał się w sposób deterministyczny --- To znaczy, gdybyśmy mogli modelować szum w taki sposób, abyśmy byli w stanie określić, które bity by się zmieniły --- Pojemność kanału byłaby nieskończenie duża. Bardzo pożądane!
Lubię analogizować losowość do tarcia: przeciwstawia się ruchowi, ale ruch bez niego jest niemożliwy.
źródło