Jako osoba posiadająca licencjat z fizyki byłem nieco zgorszony, kiedy zacząłem pracować z symulacjami molekularnymi. Szokiem było odkrycie, że nawet najbardziej szczegółowe i kosztowne obliczeniowo symulacje nie są w stanie odtworzyć ilościowo pełnego zachowania wody z pierwszych zasad.
Wcześniej miałem wrażenie, że podstawowe prawa mechaniki kwantowej stanowią rozwiązany problem (oprócz grawitacji, która zwykle jest uważana za nieistotną w skali molekularnej). Wydaje się jednak, że kiedy spróbujesz przeskalować te prawa i zastosować je do czegoś większego lub bardziej złożonego niż atom wodoru, ich moc predykcyjna zaczyna się rozpadać.
Z matematycznego punktu widzenia rozumiem, że funkcje falowe szybko stają się zbyt skomplikowane, aby je rozwiązać, i że aproksymacje (takie jak Born-Oppenheimer) są wymagane, aby funkcje falowe były bardziej przystępne. Rozumiem również, że te przybliżenia wprowadzają błędy, które rozprzestrzeniają się coraz bardziej wraz ze wzrostem skali czasowej i przestrzennej badanego systemu.
Jaka jest natura największych i najbardziej znaczących błędów aproksymacyjnych? Jak uzyskać intuicyjne zrozumienie tych błędów? Co najważniejsze, jak możemy przejść do metody ab-initio, która pozwoli nam dokładnie symulować całe cząsteczki i populacje cząsteczek? Jakie są największe nierozwiązane problemy, które powstrzymują ludzi przed opracowywaniem tego rodzaju symulacji?
Odpowiedzi:
O ile mi wiadomo, najdokładniejszymi metodami obliczeń statycznych są: pełna interakcja konfiguracji z całkowicie relatywistycznym czteroskładnikowym Dirac Hamiltonianem i „kompletnym” zestawem podstaw. Nie jestem ekspertem w tej konkretnej dziedzinie, ale z tego, co wiem o tej metodzie, rozwiązywanie jej za pomocą metody wariacyjnej (zamiast metody opartej na Monte-Carlo) skaluje się szokująco źle, ponieważ uważam, że liczba determinantów Slatera masz zawrzeć w swojej macierzy skale coś w rodzaju . (Jest artykuł o koszcie obliczeniowym tutajO (no r b sdonmi) .) Powiązane metody Monte-Carlo i metody oparte na nich przy użyciu „spacerowiczów” i sieci determinantów mogą dawać wyniki szybciej, ale jak sugerowano powyżej, nie są wariacyjne. I nadal są koszmarnie kosztowne.
Przybliżenia obecnie stosowane w praktyce tylko dla energii dla więcej niż dwóch atomów obejmują:
W przypadku dynamiki wiele przybliżeń odnosi się do takich rzeczy, jak ograniczony rozmiar układu kierowalnego i praktyczny wybór pomiaru czasu - to dość standardowe rzeczy w dziedzinie numerycznej symulacji czasu. Istnieje również utrzymanie temperatury (patrz termostaty Nose-Hoover lub Langevin). Jest to jednak głównie zestaw problemów mechaniki statystycznej, tak jak to rozumiem.
W każdym razie, jeśli jesteś nastawiony na fizykę, możesz dobrze poczuć to, co zostało zaniedbane, patrząc na formuły i dokumenty dotyczące tych metod: najczęściej używane metody będą zawierały co najmniej jeden lub dwa artykuły, które nie są oryginalną specyfikacją wyjaśnienie ich sformułowania i co obejmuje. Lub możesz po prostu porozmawiać z ludźmi, którzy ich używają. (Ludzie, którzy badają układy okresowe z DFT, zawsze mamroczą o tym, co robią różni funkcjonaliści, a nie uwzględniają i nie uwzględniają.) Bardzo niewiele metod ma określone zaskakujące pominięcia lub tryby awarii. Najtrudniejszym problemem wydaje się właściwe traktowanie korelacji elektronowej, a wszystko, co znajduje się powyżej metody Hartree-Focka, co wcale tego nie wyjaśnia, jest próbą włączenia go.
Jak rozumiem, osiągnięcie dokładności pełnego relatywistycznego CI z kompletnymi zestawami podstaw nigdy nie będzie tanie bez radykalnego wynalezienia (lub wyrzucenia) obecnie używanych algorytmów. (A dla ludzi, którzy twierdzą, że DFT jest rozwiązaniem wszystkiego, czekam na wasze czyste preparaty bezobjawowe.)
Istnieje również problem polegający na tym, że im dokładniejsza jest twoja symulacja poprzez włączenie większej liczby wkładów i bardziej złożonych formuł, tym trudniej jest w rzeczywistości cokolwiek zrobić. Na przykład sprzężenie spinowej orbity jest czasem unikane tylko dlatego, że komplikuje analizę wszystkiego (ale czasem również dlatego, że ma znikomy efekt), a kanoniczne orbitale Hartree-Focka lub Kohna-Shama mogą być bardzo przydatne do zrozumienia cech jakościowych system bez nakładania warstw na dodatkowe wyniki bardziej zaawansowanych metod.
(Mam nadzieję, że niektóre z nich mają sens, prawdopodobnie są nieco nierówne. I prawdopodobnie przegapiłem czyjąś aproksymację lub niggle.)
źródło
Głównym problemem będzie to, że oprócz zwiększonej mocy obliczeniowej będziesz musiał wymyślić lepsze algorytmy, które mogą powalić wykładnik potęgi 3,7 na coś, co jest łatwiejsze w zarządzaniu.
źródło
Problem jest zasadniczo równoważny różnicy między klasycznymi komputerami a komputerami kwantowymi. Komputery klasyczne pracują na pojedynczych wartościach jednocześnie, ponieważ dla jednego deterministycznego wejścia możliwa jest tylko jedna przyszłość / historia. Jednak komputer kwantowy może działać jednocześnie na każdym możliwym wejściu, ponieważ może zostać nałożony na superpozycję wszystkich możliwych stanów.
W ten sam sposób klasyczny komputer musi obliczyć każdą właściwość osobno, ale symulowany przez nią system kwantowy ma wszystkie prawa wszechświata, aby obliczyć wszystkie właściwości jednocześnie.
Problem nasila się w związku z tym, że musimy przekazywać dane prawie seryjnie przez procesor lub co najwyżej kilka tysięcy procesorów. Natomiast wszechświat ma prawie nieograniczony zestaw jednoczesnych obliczeń, które odbywają się w tym samym czasie.
Jako przykład rozważ 3 elektrony w pudełku. Komputer musi wybrać przedział czasowy (pierwsze przybliżenie) i ciągle przeliczać interakcje każdego elektronu ze sobą elektronem za pomocą ograniczonej liczby procesorów. W rzeczywistości elektrony mają nieznaną liczbę rzeczywistych i wirtualnych cząstek w drodze, które są absorbowane i emitowane w procesie ciągłym. Każda cząstka i punkt w przestrzeni ma pewne interakcje, które wymagałyby komputera do symulacji.
Symulacja to tak naprawdę sztuka wybierania przybliżeń i algorytmów do modelowania przedmiotu najlepiej, jak to możliwe, przy użyciu dostępnych zasobów. Jeśli chcesz doskonałości, obawiam się, że jest to matematyka sferycznych kurczaków w próżni; możemy tylko idealnie symulować bardzo proste.
źródło
Nie wiem, czy poniższe informacje pomagają, ale dla mnie wizualizacja zachowania skalowania układów kwantowych była bardzo wnikliwa:
Główny problem wynika z faktu, że przestrzeń stanów kwantowych Hilberta rośnie wykładniczo wraz z liczbą cząstek. Można to bardzo łatwo zauważyć w systemach dyskretnych. Pomyśl o kilku potencjalnych studniach, które są ze sobą połączone, może tylko dwa: studnia 1 i studnia 2. Teraz dodaj bozony (np. Rubidium 87, na przykład), na początku tylko jeden. Ile jest możliwych wektorów podstawowych?
Załóżmy teraz, że bozon może przeskakiwać (lub tunelować) z jednej studni do drugiej. Hamiltonianem opisującym system, który można następnie zapisać, jest zapis macierzowy jako
Ten problem jest tak prosty, że można go rozwiązać ręcznie.
Załóżmy teraz, że mamy więcej potencjalnych studni i więcej bozonów, np. W przypadku czterech studzienek z dwoma bozonami istnieje 10 różnych możliwości rozmieszczenia bozonów między studzienkami. Wtedy Hamiltonian miałby 10x10 = 100 elementów i 10 stanów własnych.
źródło
Teoria funkcjonalna gęstości jest innym sposobem radzenia sobie z tym problemem, ale jest to przybliżenie. W niektórych przypadkach jest to bardzo dobre przybliżenie, ale w innych może być zaskakująco złe.
źródło
Myślę, że bardzo dokładna symulacja wody była tematem jednej z pierwszych i dużych symulacji przeprowadzonych przy użyciu superkomputera Jaguar . Warto przyjrzeć się temu artykułowi i jego dalszej pracy (która, nawiasem mówiąc, była finalistą nagrody Gordona-Bella w 2009 roku):
„Płynna woda: uzyskanie właściwej odpowiedzi z właściwych powodów” , Aprà, Rendell, Harrison, Tipparaju, deJong, Xantheas.
źródło
Ten problem rozwiązuje Teoria Funkcjonalności Gęstości. Istotą jest zastąpienie wielu stopni swobody ciała kilkoma polami, z których jedno ma gęstość elektronów. Wielka wystawa znajduje się na wykładzie nobla jednego z założycieli DFT: http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1998/kohn-lecture.pdf
źródło