Wydaje mi się, że niezwykle istotnym pytaniem dla perspektyw obliczeń kwantowych byłoby pytanie, w jaki sposób złożoność inżynierska systemów kwantowych skaluje się z rozmiarem. Co oznacza, że łatwiej jest zbudować 1 komputerów -qubit niż jednego n -qubit komputerze. W moim umyśle, to jest w przybliżeniu analogiczny do tego, że łatwiej jest rozwiązać analitycznie n 1 -Body problemów niż jednej n -Body problemu, ponieważ splątanie jest głównym czynnikiem motywującym za kwantu obliczeniowej w pierwszej kolejności.
Moje pytanie jest następujące: wydaje się, że powinniśmy naprawdę dbać o to, jak rośnie trudność budowania i kontrolowania układu kwantowego ciała wraz z n . Napraw architekturę bramy, a nawet algorytm - czy istnieje zasadniczo trudność wynikająca z faktu, że komputer n- qitit jest kwantowym problemem wielu ciał? I to matematycznie nasze rozumienie, w jaki sposób zjawiska kwantowe przekształcają się w zjawiska klasyczne, jest dość słabe? Tutaj trudność można zdefiniować na wiele sposobów, a kwestią, na którą chcielibyśmy się z grubsza zwrócić uwagę , jest kontrolowanie maszyny o kubitach 1000 (to znaczy zachowanie spójności jej funkcji falowych) „zaledwie” 100 razy trudniej niż kontrolowanieMaszyna 10- kubitowa lub 100 2 lub 100 ! lub 100 100 ? Czy mamy powody, by sądzić, że jest to mniej więcej ten pierwszy, a nie drugi?
źródło
Odpowiedzi:
To pytanie, o którym myślałem od ponad 10 lat. W 2008 roku byłem studentem i powiedziałem mojemu profesorowi obliczeń kwantowych, że chcę zbadać „fizyczną złożoność” wykonywania algorytmów kwantowych, dla których wiadomo, że „złożoność obliczeniowa” korzysta z obliczeń kwantowych.
Na przykład wyszukiwanie Grovera wymaga bramki kwantowe w przeciwieństwie dobramek klasycznychO(n), ale co jeśli koszt kontroli bramek kwantowych jest równyn4,podczas gdy dla bram klasycznych jest to tylkon?O(n−−√) O(n) n4 n
Natychmiast odpowiedział:
Oto kroki, które musisz podjąć:
Teraz możesz zobaczyć, dlaczego musiałeś tu przyjechać, aby zadać pytanie, a odpowiedzi nie ma w żadnym podręczniku:
Krok 1 zależy od rodzaju realizacji (NMR, Photonics, SQUIDS itp.)
Krok 2 jest bardzo trudny. Dynamikę bez dekoherencji symulowano bez fizycznych przybliżeń dla 64 kubitów , ale niemarkowańska, nieperturbacyjna dynamika z dekoherencją jest obecnie ograniczona do 16 kubitów .
Krok 4 zależy od algorytmu. Nie ma więc „uniwersalnego skalowania” złożoności fizycznej, nawet jeśli pracuje się z określonym rodzajem implementacji (np. NMR, Photonics, SQUID itp.)
Krok 5 zależy od wyboru kodu korygującego błędy
Tak więc, aby dokładnie odpowiedzieć na dwa pytania:
To zależy od twojego wyboru w kroku 1 i nikt nie był jeszcze w stanie przejść od kroku 1 do kroku 3, aby uzyskać dokładną formułę złożoności fizycznej w odniesieniu do liczby kubitów, nawet dla konkretnego algorytmu. Jest to więc wciąż pytanie otwarte, ograniczone przez trudność w symulacji dynamiki otwartego układu kwantowego.
źródło
Złożoność obwodu
Myślę, że pierwszą kwestią jest prawdziwe zrozumienie, co oznacza „kontrolowanie” układu kwantowego. W tym celu może pomóc zacząć myśleć o klasycznym przypadku.
Decoherence
W następstwie komentarzy
Dzieli się to na dwa systemy. W przypadku urządzeń kwantowych na małą skalę przed korektą błędów można powiedzieć, że jesteśmy w reżimie NISQ . Ta odpowiedź jest prawdopodobnie najbardziej odpowiednia dla tego systemu. Jednak w miarę powiększania się urządzenia zwroty będą maleć; coraz trudniej jest wykonać zadanie inżynieryjne, dodając jeszcze kilka kubitów.
Naprawdę przekonujące jest zobaczyć, jak zmieniają się współczynniki w tych relacjach, gdy błąd bramki zbliża się coraz bardziej do progu korekcji błędów. Nie wydaje mi się, aby położyć ręce na odpowiednim obliczeniu (jestem pewien, że Andrew Steane kiedyś to zrobił. Być może to była rozmowa, do której poszedłem.), Ale wybuchają naprawdę źle, więc chcesz działać z przyzwoitym marginesem poniżej progu.
To powiedziawszy, jest kilka założeń, które należy poczynić na temat twojej architektury, zanim te rozważania będą istotne. Na przykład musi istnieć wystarczająca równoległość; musisz być w stanie działać jednocześnie na różnych częściach komputera. Jeśli robisz tylko jedną rzecz naraz, błędy zawsze będą narastały zbyt szybko. Chcesz także mieć możliwość zwiększenia skali procesu produkcyjnego bez pogorszenia sytuacji. Wydaje się, że na przykład kubity nadprzewodzące będą do tego całkiem dobre. Ich działanie zależy głównie od tego, jak dokładnie można wykonać różne części obwodu. Dostajesz to dla jednego i możesz „tylko” powtarzać wiele razy, aby stworzyć wiele kubitów.
źródło
W pewnym sensie „wierność” może dać oszacowanie, jak podatny na błędy jest procesor. Jeśli użyłeś komputera kwantowego do obliczenia, powiedzmy, dynamiki reakcji chemicznej lub jakiegokolwiek innego problemu, który mógłby użyć superpozycji, aby osiągnąć przyspieszenie kwantowe (lub nawet „supremację kwantową” w końcu), możesz mieć wpływ dekoherencji, a nawet tego, jak szybko osiągniesz superpozycję , może odgrywać rolę w działaniu bezbłędnym. „Wierność” może dać oszacowanie błędu, niezależnie od tego, czy używamy 1 kubit, czy powiedzmy 200 kubitów. Można nawet „zaprojektować” hamiltonian, aby dać kubity wysokiej wierności, w przypadku adiabatycznym, w którym występują błędy wycieku.
Należy zauważyć, że w praktyce wskaźniki błędu wynoszące 99,5% + są bardzo pożądane, aby ułatwić skuteczną korekcję błędów. Wskaźniki błędu mogą być rodzaju odczytu spinów elektronów między kubitami z dokładnością. W takim przypadku wskaźniki błędów wynoszące 99,5% lub 99,8% (pewność pięciu lub sześciu sigma) wymagałyby mniejszych kosztów ogólnych (korekcji błędów) podczas skalowania systemu.
źródło