Jak rozumiem, istnieją dwie główne kategorie iteracyjnych metod rozwiązywania liniowych układów równań:
- Metody stacjonarne (Jacobi, Gauss-Seidel, SOR, Multigrid)
- Metody podprzestrzeni Kryłowa (Gradient sprzężony, GMRES itp.)
Rozumiem, że większość metod stacjonarnych działa poprzez iteracyjne relaksowanie (wygładzanie) trybów błędu Fouriera. Jak rozumiem, metoda gradientu sprzężonego (metoda podprzestrzeni Kryłowa) działa poprzez „przechodzenie” przez optymalny zestaw kierunków wyszukiwania z mocy macierzy zastosowanej do tego reszty. Czy ta zasada jest wspólna dla wszystkich metod podprzestrzeni Kryłowa? Jeśli nie, to jak ogólnie scharakteryzujemy zasadę konwergencji metod podprzestrzeni Kryłowa?
Odpowiedzi:
Ogólnie rzecz biorąc, wszystkie metody Kryłowa zasadniczo szukają wielomianu, który jest mały, gdy jest oceniany na widmie macierzy. W szczególności ta reszta metody Kryłowa (z zerowym początkowym domysłem) może być zapisana w formien
gdzie to jakiś monomiczny wielomian stopnia n .Pn n
Jeśli jest diagonalizowalne, przy A = V Λ V - 1 , mamyA A=VΛV−1
W przypadku, gdy jest normalny (np. Symetryczny lub jednostkowy) wiemy, że κ ( V ) = 1. GMRES konstruuje taki wielomian poprzez iterację Arnoldiego, podczas gdy CG konstruuje wielomian przy użyciu innego produktu wewnętrznego (szczegóły w tej odpowiedzi ) . Podobnie, BiCG konstruuje swój wielomian poprzez niesymetryczny proces Lanczosa, podczas gdy iteracja Czebyszewa wykorzystuje wcześniejsze informacje o widmie (zwykle szacunki największych i najmniejszych wartości własnych dla symetrycznych określonych macierzy).ZA κ ( V) = 1.
Jako fajny przykład (motywowany przez Trefethen + Bau), rozważ macierz o spektrum:
W MATLAB zbudowałem to z:
Jeśli weźmiemy pod uwagę GMRES, który konstruuje wielomianów, które faktycznie minimalizują resztki na wszystkich wielomianach monicznych stopnia , możemy łatwo przewidzieć historię resztkową, patrząc na kandydujący wielomiann
co w naszym przypadku daje
do w widmie A .z ZA
Teraz, jeśli uruchomimy GMRES na losowym RHS i porównamy resztkową historię z tym wielomianem, powinny one być dość podobne (potencjalne wartości wielomianowe są mniejsze niż resztkowe GMRES, ponieważ ):∥ b ∥2)> 1
źródło
W sprawie norm
Jako uzupełnienie odpowiedzi Reid.Atcheson chciałbym wyjaśnić niektóre kwestie dotyczące norm. W iteracji GMRES znajduje wielomianunt godz P.n 2)
gdzie użyliśmy błędu
Ostrość granic konwergencji
Wreszcie, istnieje interesująca literatura na temat różnych metod Kryłowa i subtelności konwergencji GMRES, szczególnie dla nietypowych operatorów.
Nachtigal, Reddy i Trefethen (1992) Jak szybkie są niesymetryczne iteracje macierzy? (pdf autora) podaje przykłady macierzy, dla których jedna metoda pokonuje wszystkie inne dużym czynnikiem (przynajmniej pierwiastek kwadratowy z rozmiaru matrycy).
Embree (1999) Jak opisowe są granice konwergencji GMRES? daje wnikliwą dyskusję na temat pseudospektr, które dają ostrzejsze granice, a także odnoszą się do matryc niediagonalnych.
Embree (2003) Żółw i zając restartują GMRES (autor pdf)
Greenbaum, Pták i Strakoš (1996) Dla GMRES możliwa jest dowolna nie rosnąca krzywa konwergencji
źródło
Metody iteracyjne w pigułce:
Metody stacjonarne są w istocie iteracjami stałymi punktami : do rozwiązaniaA x = b , wybierasz odwracalną macierz do i znajdź stały punkt
Metody Kryłowa Metody podprzestrzeni są w istocie metodami projekcji : wybierasz podprzestrzenieU, V⊂ C.n i poszukaj x~∈ U tak, że resztkowe b - A x~ jest prostopadły do V. . W przypadku metod KryłowaU oczywiście jest to przestrzeń rozpięta przez moce ZA zastosowane do początkowej pozostałości. Różne metody odpowiadają następnie konkretnym wyboromV. (na przykład, V.= U dla CG i V.= A U dla GMRES).
Właściwości zbieżności tych metod (i ogólnie metod projekcji) wynikają z faktu, że ze względu na odpowiedni wybórV. , x~ są optymalne U (np. minimalizują błąd w normie energetycznej dla CG lub resztkowy dla GMRES). Jeśli zwiększysz wymiarU w każdej iteracji masz gwarancję (dokładnie arytmetyki), aby znaleźć rozwiązanie po skończonej liczbie kroków.
Jak zauważył Reid Atcheson, używając spacji Kryłowa dlaU pozwala udowodnić wskaźniki konwergencji pod względem wartości własnych (a tym samym liczby warunków) ZA . Ponadto mają one kluczowe znaczenie dla uzyskania wydajnych algorytmów do obliczania projekcjix~ .
Jest to dobrze wyjaśnione w książce Youcefa Saada na temat metod iteracyjnych .
źródło