Mówiąc o komputerach kwantowych, zwykle mamy na myśli urządzenia odporne na uszkodzenia. Będą one w stanie uruchomić algorytm Shora dla faktoringu, a także wszystkie inne algorytmy opracowane przez lata. Ale moc wiąże się z kosztem: aby rozwiązać problem faktorowania, który nie jest możliwy w przypadku klasycznego komputera, będziemy potrzebować milionów kubitów . Narzut ten jest wymagany do korekcji błędów, ponieważ większość znanych algorytmów jest wyjątkowo wrażliwa na zakłócenia.
Mimo to programy działające na urządzeniach większych niż 50 kubitów szybko stają się niezwykle trudne do symulacji na klasycznych komputerach. Otwiera to możliwość wykorzystania urządzeń tego rodzaju do przeprowadzenia pierwszej demonstracji komputera kwantowego, który robi coś, co jest nieosiągalne dla klasycznego. Będzie to prawdopodobnie zadanie wysoce abstrakcyjne i nieprzydatne w żadnym praktycznym celu, ale mimo to będzie dowodem zasady.
Gdy to zrobimy, będziemy w dziwnej erze. Będziemy wiedzieć, że urządzenia potrafią robić rzeczy, których nie potrafią klasyczne komputery, ale nie będą wystarczająco duże, aby zapewnić odporne na błędy implementacje znanych nam algorytmów. Preskill ukuł termin „ Noisy Intermediate-Scale Quantum ”, aby opisać tę epokę. Głośno, ponieważ nie mamy wystarczającej ilości kubitów, aby zaoszczędzić na korekcji błędów, dlatego musimy bezpośrednio użyć niedoskonałych kubitów na warstwie fizycznej. I „Skala pośrednia” ze względu na ich małą (ale niezbyt małą) liczbę kubitową.
Jakie aplikacje mogą mieć urządzenia w erze NISQ? A jak zaprojektujemy oprogramowanie kwantowe do ich wdrożenia? Są to pytania, na które nie ma jeszcze pełnej odpowiedzi i prawdopodobnie będą wymagały zupełnie innych technik niż w przypadku odpornych na błędy obliczeń kwantowych.