Diese Gradientenmethode startet mit einem Vektor
und tastet sich über
eine Folge von Iterationsschritten
zum
tiefsten
-dimensionalen Punkt des quadratischen Funktionals
(4.28) hinab.
Die Richtung des Fortschreitens, für welche
maximal reduziert wird,
ist durch den negativen Gradienten

gegeben. Die Richtung
ist aber auch das Residuum

des zu lösenden Gleichungssystems, das darüber Aufschluß gibt,
wie groß die Abweichung von
ist. Der Vektor

ist die Differenz vom Istwert der
-ten Iteration zum Sollwert
. Es ist auch
leicht zu sehen, daß
auch als

darstellbar ist. Eine neue Lösung
kann aus einer alten Lösung
mit

gewonnen werden. Die noch offene Frage, welche die Wahl der Schrittweite
betrifft, wird durch eine Minimumssuche von
entlang der Linie
gelöst.
Ist nämlich die Richtungsableitung
null,
so ist
ein Minimum entlang der Suchrichtung
. Mit Hilfe der Kettenregel
erhält man die Form

Setzt man diesen Ausdruck null, so sieht man, daß die Schrittweite
so gewählt werden muß, daß
und
orthogonal aufeinander sind. Zur
Berechnung von
wird die Beziehung

von der Iteration
gänzlich auf
zurückgeführt.

Der Algorithmus der Methode des steilsten Abstiegs kann nun mit

formuliert werden, wobei als Abbruchkriterium eine
-Norm des Residuums
bezogen auf die rechte Seite gewählt wurde.
Unglücklicherweise ist die Iterationszahl sehr hoch, wenn die Konditionszahl,
das Verhältnis vom größten zu kleinsten Eigenwert, sehr groß ist.
In diesem Fall sind die Isolinien von
langgestreckte Hyperellipsoide. Bei zwei Unbekannten ist die Funktion
vergleichbar mit einem langgestreckten Tal, wobei der Anstieg vom Minimum in
Längsrichtung viel kleiner ist als in Querrichtung. Die Hauptachsen des
Ellipsoids sind die Eigenwerte.
Wendet man die Methode des steilsten Abstiegs an, so bewegt man sich mehr in
Querrichtung als in Längsrichtung zum tiefsten Punkt hin. Die Suchrichtungen, die
durch die Residuen vorgegeben werden, sind einander, bis auf das Vorzeichen, ähnlich
und bewirken eine langsame Konvergenz.