Obniżanie gradientu i metoda gradientu sprzężonego to algorytmy minimalizujące funkcje nieliniowe, to znaczy funkcje takie jak funkcja Rosenbrocka
f(x1,x2)=(1−x1)2+100(x2−x21)2
lub wielowymiarowa funkcja kwadratowa (w tym przypadku z symetrycznym wyrażeniem kwadratowym)
f(x)=12xTATAx−bTAx.
Oba algorytmy są również iteracyjne i oparte na kierunkach wyszukiwania. W pozostałej części tego postu i będą wektorami o długości ; i są skalarami, a indeksy górne oznaczają indeks iteracji. Zejście gradientu i metodę gradientu sprzężonego można użyć do znalezienia wartości która rozwiązujed n f ( x ) α x ∗xdnf(x)αx∗
minf(x)
Obie metody zaczynają się od wstępnego odgadnięcia , a następnie obliczają następną iterację przy użyciu funkcji formularzax0
xi+1=xi+αidi.
Innymi słowy, następną wartość można znaleźć, rozpoczynając od bieżącej lokalizacji , i przesuwając się w kierunku wyszukiwania na pewną odległość . W obu metodach odległość do przesunięcia można znaleźć poprzez wyszukiwanie linii (minimalizuj ponad ). Można również zastosować inne kryteria. Różnice między tymi dwiema metodami polegają na wyborze . W przypadku metody gradientowej . W przypadku metody gradientu sprzężonego do ortogonalizacji wektorów gradientu stosowana jest procedura Grahm-Schmidta. W szczególności , ale wtedy jest równex i d i α i f ( x i + α i d i ) α i d ixxjarejaαjafa( xja+ αjareja)αjarejad 0 = - ∇ f ( x 0 ) d 1 - ∇ f ( x 1 ) d 0 ( d 1 ) T d 0 = 0reja= - ∇ f( xja)re0= - ∇ f( x0)re1- ∇ f( x1) minus rzut tego wektora na tak, że . Każdy kolejny wektor gradientowy jest ortogonalizowany względem wszystkich poprzednich, co prowadzi do bardzo dobrych właściwości powyższej funkcji kwadratowej.re0( d1)T.re0= 0
Powyższa funkcja kwadratowa (i powiązane sformułowania) ma również miejsce, gdy pochodzi dyskusja na temat rozwiązywania przy użyciu metody gradientu sprzężonego, ponieważ minimum tej osiąga się w punkcie gdzie .f ( x ) x A x = bA x = bfa( x )xA x = b