Jeden z interesujących otwartych problemów dotyczących DFA wymienionych w Czy są jakieś otwarte problemy dotyczące DFA? jest wielkością DFA wymaganą do oddzielenia dwóch łańcuchów długości . Jestem ciekawy, czy są jakieś wyniki dotyczące zdolności losowego DFA do oddzielania dwóch podanych (nielosowych) ciągów.
Wyraźnie losowy DFA o wystarczająco wielu stanach oddziela łańcuchy z dużym prawdopodobieństwem. W szczególności, jeśli , losowe DFA ze stanami prawdopodobnie nigdy nie powrócą do tego samego stanu, gdy osiągnie pierwsze miejsce, w którym różnią się i , a zatem oddziela i .
Czy możemy zrobić lepiej? Idealnie, co jest najmniejszą ST, które losowym DFA z F ( ń ) państw oddziela ciągi o długości n z dodatnim prawdopodobieństwa (lub może prawdopodobieństwo ≥ 1 / 2 )? Krótkie wyszukiwanie nie wykazało wielu wyników dotyczących właściwości losowych DFA; wszystko, co mogłem znaleźć, to http://arxiv.org/abs/1311.6830 .
źródło
Odpowiedzi:
[Edytuj: ta odpowiedź nie działa, zobacz komentarze.]
To tylko nieformalny pomysł i nie wiem, czy to pomaga, ale jest zbyt długi, aby go podać w komentarzu. Nie jestem też w ogóle zaznajomiony z przypadkowymi DFA, więc może mam błędną intuicję, jak powinieneś myśleć o prawdopodobieństwach na ich temat, ale mam nadzieję, że nie jest to całkowicie bezwartościowe.
Przypuszczam, że twoje granice powinny zależeć od tego, jak bardzo różnią się i v ; jeśli nie, wydaje mi się jasne, że najgorszym przypadkiem są łańcuchy różniące się tylko pierwszym znakiem (łańcuchy różniące się w zbiorze X pozycji mają większe szanse na rozróżnienie niż łańcuchy różniące się w zbiorze Y ⊂u v X pozycji , Powiedziałbym, a jak najszybsze wprowadzenie różnicy daje możliwość ponownej synchronizacji).Y⊂X
Przyjrzę się również prawdopodobieństwu rozróżnienia słów, a mianowicie, że osiągają różne stany. Sądzę, że musiałbyś wtedy dostosować się do przyjęcia lub odrzucenia na podstawie tego, jak twoje losowe DFA przydzielają stany końcowe. Jeśli prawdopodobieństwo każdego stanu 1/2 jest ostateczne, wówczas gdy łańcuchy kończą się w tym samym stanie, nie są rozróżniane, a gdy kończą się w różnych stanach, prawdopodobieństwo 1/2 ich rozróżnienia.
Teraz rozważę słowo uzyskane z u i v w następujący sposób: w i = 1 jeśli u i = v i , w i = 0 w przeciwnym razie. Myślę, że jest jasne, że w jest jedyną interesującą rzeczą do rozważenia na temat u i v .w u v wi=1 ui=vi wi=0 w u v
Teraz należy ustalić prawdopodobieństwo tego, że są w tym samym stanie po przeczytaniu prefiksów długości i z U i V , a Q ( i ) = 1 - p ( ı ), prawdopodobieństwo tego, że nie są.p(i) i u v q(i)=1−p(i)
Myślę, że mamy gdy w i + 1 wynosi 1 . Intuicyjnie jesteśmy w tym samym stanie po przeczytaniu liter i + 1, albo kiedy byliśmy w tym samym stanie po przeczytaniu i , lub gdy byliśmy w dwóch różnych (losowych) stanach, narysowaliśmy dwie przejścia do stanów losowych, a one się zdarzyły bądź taki sam. Podobnie mamy p ( i + 1 ) = 1p(i+1)=p(i)+q(i)/n wi+1 1 i+1 i gdy w i + 1 wynosi 0p(i+1)=1/n wi+1 0 : rysujesz dwa losowe stany, bez względu na to, od czego zacząłeś.
Z tego sądzę, że można obliczyć prawdopodobieństwo bycia w tym samym stanie po przeczytaniu i v .u v
źródło