Czy są jakieś szacunki dotyczące złożoności inżynierii kwantowej w zależności od wielkości?

12

Wydaje mi się, że niezwykle istotnym pytaniem dla perspektyw obliczeń kwantowych byłoby pytanie, w jaki sposób złożoność inżynierska systemów kwantowych skaluje się z rozmiarem. Co oznacza, że łatwiej jest zbudować 1 komputerów -qubit niż jednego n -qubit komputerze. W moim umyśle, to jest w przybliżeniu analogiczny do tego, że łatwiej jest rozwiązać analitycznie n 1 -Body problemów niż jednej n -Body problemu, ponieważ splątanie jest głównym czynnikiem motywującym za kwantu obliczeniowej w pierwszej kolejności.n 1nn 1n

Moje pytanie jest następujące: wydaje się, że powinniśmy naprawdę dbać o to, jak rośnie trudność budowania i kontrolowania układu kwantowego ciała wraz z n . Napraw architekturę bramy, a nawet algorytm - czy istnieje zasadniczo trudność wynikająca z faktu, że komputer n- qitit jest kwantowym problemem wielu ciał? I to matematycznie nasze rozumienie, w jaki sposób zjawiska kwantowe przekształcają się w zjawiska klasyczne, jest dość słabe? Tutaj trudność można zdefiniować na wiele sposobów, a kwestią, na którą chcielibyśmy się z grubsza zwrócić uwagę , jest kontrolowanie maszyny o kubitach 1000 (to znaczy zachowanie spójności jej funkcji falowych) „zaledwie” 100 razy trudniej niż kontrolowaniennn1000100Maszyna 10- kubitowa lub 100 2 lub 100 ! lub 100 100 ? Czy mamy powody, by sądzić, że jest to mniej więcej ten pierwszy, a nie drugi?101002100!100100

Keith Rush
źródło
Ha, nie wiem, co do mnie i miał prowadzić ...
Keith Rush
Cześć @KeithRush, czy nie brakuje czegoś w pierwszym zdaniu? Nawiasem mówiąc, świetne pytanie.
MEE - Przywróć Monikę
Absolutnie nie powielone, ale czuję, że odpowiedzi na dwa pytania są ze sobą ściśle powiązane: quantumcomputing.stackexchange.com/questions/1803/…
agaitaarino

Odpowiedzi:

8

To pytanie, o którym myślałem od ponad 10 lat. W 2008 roku byłem studentem i powiedziałem mojemu profesorowi obliczeń kwantowych, że chcę zbadać „fizyczną złożoność” wykonywania algorytmów kwantowych, dla których wiadomo, że „złożoność obliczeniowa” korzysta z obliczeń kwantowych.

Na przykład wyszukiwanie Grovera wymaga bramki kwantowe w przeciwieństwie dobramek klasycznychO(n), ale co jeśli koszt kontroli bramek kwantowych jest równyn4,podczas gdy dla bram klasycznych jest to tylkon?O(n)O(n)n4n

Natychmiast odpowiedział:

„Z pewnością twój pomysł na złożoność fizyczną będzie zależał od implementacji”

nn

Oto kroki, które musisz podjąć:



FnFn

E

Teraz możesz zobaczyć, dlaczego musiałeś tu przyjechać, aby zadać pytanie, a odpowiedzi nie ma w żadnym podręczniku:

Krok 1 zależy od rodzaju realizacji (NMR, Photonics, SQUIDS itp.)
Krok 2 jest bardzo trudny. Dynamikę bez dekoherencji symulowano bez fizycznych przybliżeń dla 64 kubitów , ale niemarkowańska, nieperturbacyjna dynamika z dekoherencją jest obecnie ograniczona do 16 kubitów .
Krok 4 zależy od algorytmu. Nie ma więc „uniwersalnego skalowania” złożoności fizycznej, nawet jeśli pracuje się z określonym rodzajem implementacji (np. NMR, Photonics, SQUID itp.)
Krok 5 zależy od wyboru kodu korygującego błędy

Tak więc, aby dokładnie odpowiedzieć na dwa pytania:

100101002100!100100

To zależy od twojego wyboru w kroku 1 i nikt nie był jeszcze w stanie przejść od kroku 1 do kroku 3, aby uzyskać dokładną formułę złożoności fizycznej w odniesieniu do liczby kubitów, nawet dla konkretnego algorytmu. Jest to więc wciąż pytanie otwarte, ograniczone przez trudność w symulacji dynamiki otwartego układu kwantowego.

Czy mamy powody, by sądzić, że jest to mniej więcej ten pierwszy, a nie drugi?

n!n100n

użytkownik1271772
źródło
1
nρ(C2)nnρn
1
Co rozumiesz przez „nieskończenie małą dynamikę”? Pole wektorowe jest określone przez dynamikę ocenianą w którym punkcie? Oblicz normę czego (używając pola tensora metrycznego Fishera)? Masz na myśli obliczyć normę pola wektorowego? Wydaje się to być dobrym pomysłem, ale jeśli myślę, że chodzi ci o to, aby spojrzeć na dekoherencję dla nieskończenie krótkiego czasu przy t = 0, nie wiem, jak cenna jest to miara, ponieważ zajmuje to czas na osiągnięcie przez dekoherencję pełnej siły, ponieważ siła dekoherencji charakteryzuje się funkcją reakcji kąpieli, która jest całką ponad t.
user1271772
1
(Mn,g)nMnρTρMnr(ρ). Jeśli chcesz uzyskać supremum we wszystkich możliwych stanach, wykonaj gradient. Daje to bardzo zgrubną granicę szybkości dekoherencji, biorąc pod uwagę pole wektorowe, które określało dynamikę. Można to wykorzystać do ograniczenia dekoherencji nawet w większych momentach z powodu tego ograniczenia prędkości.
AHusain,
4

Złożoność obwodu

Myślę, że pierwszą kwestią jest prawdziwe zrozumienie, co oznacza „kontrolowanie” układu kwantowego. W tym celu może pomóc zacząć myśleć o klasycznym przypadku.

n2n222n2n/nk2n

nϵO(n2), a następnie odpowiednie sterowanie maszyną o kubitowości 1000 jest 10000 razy trudniejsze niż kontrolowanie maszyny o kubitach 10, w tym sensie, że trzeba chronić ją jeszcze dłużej przed dekoherencją, wprowadzić o wiele więcej bram itp.

Decoherence

W następstwie komentarzy

Rozważmy określony algorytm lub określony rodzaj obwodu. Moje pytanie może zostać powtórzone - czy jest jakieś wskazanie, teoretyczne lub praktyczne, w jaki sposób (inżynierski) problem zapobiegania dekoherencji skaluje się podczas skalowania liczby tych obwodów?

Dzieli się to na dwa systemy. W przypadku urządzeń kwantowych na małą skalę przed korektą błędów można powiedzieć, że jesteśmy w reżimie NISQ . Ta odpowiedź jest prawdopodobnie najbardziej odpowiednia dla tego systemu. Jednak w miarę powiększania się urządzenia zwroty będą maleć; coraz trudniej jest wykonać zadanie inżynieryjne, dodając jeszcze kilka kubitów.

pppp1%O(logϵ)ϵO(logϵ)Współczynnik skali. W przypadku konkretnych liczb możesz zainteresować się rodzajami obliczeń, które wykonał Andrew Steane: patrz tutaj (chociaż liczby prawdopodobnie można by teraz nieco poprawić).

Naprawdę przekonujące jest zobaczyć, jak zmieniają się współczynniki w tych relacjach, gdy błąd bramki zbliża się coraz bardziej do progu korekcji błędów. Nie wydaje mi się, aby położyć ręce na odpowiednim obliczeniu (jestem pewien, że Andrew Steane kiedyś to zrobił. Być może to była rozmowa, do której poszedłem.), Ale wybuchają naprawdę źle, więc chcesz działać z przyzwoitym marginesem poniżej progu.

To powiedziawszy, jest kilka założeń, które należy poczynić na temat twojej architektury, zanim te rozważania będą istotne. Na przykład musi istnieć wystarczająca równoległość; musisz być w stanie działać jednocześnie na różnych częściach komputera. Jeśli robisz tylko jedną rzecz naraz, błędy zawsze będą narastały zbyt szybko. Chcesz także mieć możliwość zwiększenia skali procesu produkcyjnego bez pogorszenia sytuacji. Wydaje się, że na przykład kubity nadprzewodzące będą do tego całkiem dobre. Ich działanie zależy głównie od tego, jak dokładnie można wykonać różne części obwodu. Dostajesz to dla jednego i możesz „tylko” powtarzać wiele razy, aby stworzyć wiele kubitów.

DaftWullie
źródło
1
Zasadniczo to miałem na myśli, ale usuwając złożoność algorytmiczną i skupiając się na złożoności inżynierii - szczególnie zapobiegając dekoherencji. Rozważmy określony algorytm lub określony rodzaj obwodu. Moje pytanie może zostać powtórzone - czy jest jakieś wskazanie, teoretyczne lub praktyczne, w jaki sposób (inżynierski) problem zapobiegania dekoherencji skaluje się podczas skalowania liczby tych obwodów?
Keith Rush,
@KeithRush OK! Teraz zaczynam rozumieć, o co ci chodzi :) w istocie jest to złożoność obliczeniowa tolerancji na uszkodzenia - jaki jest czas i przestrzeń, aby uzyskać pewną liczbę logicznych kubitów wysokiej jakości - i jest to coś, co ludzie wypracowali dość ostrożnie. Spróbuję jutro wykopać odpowiednie informacje, chyba że ktoś inny mnie do tego nie przebije.
DaftWullie
2

mn

W pewnym sensie „wierność” może dać oszacowanie, jak podatny na błędy jest procesor. Jeśli użyłeś komputera kwantowego do obliczenia, powiedzmy, dynamiki reakcji chemicznej lub jakiegokolwiek innego problemu, który mógłby użyć superpozycji, aby osiągnąć przyspieszenie kwantowe (lub nawet „supremację kwantową” w końcu), możesz mieć wpływ dekoherencji, a nawet tego, jak szybko osiągniesz superpozycję , może odgrywać rolę w działaniu bezbłędnym. „Wierność” może dać oszacowanie błędu, niezależnie od tego, czy używamy 1 kubit, czy powiedzmy 200 kubitów. Można nawet „zaprojektować” hamiltonian, aby dać kubity wysokiej wierności, w przypadku adiabatycznym, w którym występują błędy wycieku.

Należy zauważyć, że w praktyce wskaźniki błędu wynoszące 99,5% + są bardzo pożądane, aby ułatwić skuteczną korekcję błędów. Wskaźniki błędu mogą być rodzaju odczytu spinów elektronów między kubitami z dokładnością. W takim przypadku wskaźniki błędów wynoszące 99,5% lub 99,8% (pewność pięciu lub sześciu sigma) wymagałyby mniejszych kosztów ogólnych (korekcji błędów) podczas skalowania systemu.

użytkownik3483902
źródło