Ing Mathematik: Numerisches Lösen nichtlinearer Gleichungen
Nullstellenprobleme
BearbeitenNullstellen (oder Wurzeln) einer Funktion sind diejenigen Punkte, welche die x-Achse berühren oder schneiden (y=0). Wichtig sind insbesondere die Fragen
- existieren Nullstellen,
- in welchem Bereich liegen sie und
- wieviele Nullstellen gibt es?
Zwischenwertsatz
BearbeitenEine stetige Funktion nimmt jeden Wert zwischen und an. Mit ist der Zwischenwertsatz für die Lösung von Nullstellenproblemen wichtig. Man nennt ihn dann auch Nullstellensatz (von Bolzano). Er besagt dann: Haben und verschiedene Vorzeichen, so existiert mindestens eine Nullstelle von im Intervall .
Siehe zu diesem Thema insbesondere Zwischenwertsatz.
Bisektion
BearbeitenDas Bisektions- oder Intervallhalbierungsverfahren kann benutzt werden, um Nullstellen grob zu bestimmen. Es ist bei Weitem nicht das schnellste Verfahren um Nullstellen genau zu bestimmen. Allerdings konvergieren die schnelleren Verfahren nicht immer und das Bisektionsverfahren kann hier ggf. Hilfestellung leisten. Das Bisektionsverfahren läuft wie folgt ab:
Sei mit stetig.
In jedem der erzeugten Intervalle gibt es eine Nullstelle von .
Natürlich kann man auch das Bisektionsverfahren durch ein Python-Programm realisieren:
import numpy as np def funktion(x): y = x**3-x+0.3 return y def bisektion(a, b, maxit): ai = a bi = b for i in np.arange(0, maxit): if funktion((ai+bi)/2.) * funktion(ai) <= 0.: bi = (ai+bi) / 2. else: ai = (ai+bi) / 2. print(ai, bi) bisektion(0., 0.5, 10)
Ausgabe:
0.25 0.5 0.25 0.375 0.3125 0.375 0.3125 0.34375 ... 0.3388671875 0.33935546875
Die Zahlenwerte für das Polynom in funktion
und das Startintervall wurden aus einem Beispiel in Knorrenschild: Seite 27 entnommen. Die anderen Nullstellen lassen sich genauso bestimmen. Es muss nur das Startintervall entsprechend gesetzt werden.
Auch SciPy bietet eine vorgefertigte Funktion namens scipy.optimize.bisect
:
from scipy.optimize import bisect def funktion(x): y = x**3-x+0.3 return y print (bisect(funktion, 0., 0.5))
Ausgabe:
0.33893624159645697
Die Nullstellen des Beispiels und den Graphen allgemein zeigt folgender Plot:
Fixpunktiteration
BearbeitenGleichungen der Form (Fixpunktgleichungen) sollen gelöst werden. In diese Form muss die Gleichung umgeformt werden. Anschließend wird eine Startnäherung gewählt und berechnet und weiter iterativ verfeinert etc. Unter bestimmten Voraussetzungen nähert sich die Folge einer Lösung des ursprünglichen Problems an.
Für weitere Details siehe z.B. Fixpunktiteration.
Beispiel:
- Fixpunktgleichung:
- Startwert:
- Iterationen:
Sehr einfach lässt sich das auch mittels Python-Programm rechnen:
import numpy as np x_i = 1. for i in np.arange(0, 10): x_i = 10 - np.log10(x_i) print(x_i)
Ausgabe:
10.0 9.0 9.045757490560675 ... 9.043655967157635
Banachscher Fixpunktsatz
BearbeitenMit dem banachschen Fixpunktsatz lässt sich die Konvergenz von iterativen Verfahren (wie z.B. dem Newton-Verfahren) zeigen. S. Banach veröffentlichte diesen Satz im Jahr 1922.
Eine Abbildung heißt kontrahierend, wenn mit . heißt auch Kontraktionszahl von . Daraus folgt: hat genau einen Fixpunkt. Die Iterationsfolge konvergiert gegen diesen Fixpunkt. Der Startwert sei .
Es gelten die
- a-priori-Fehlerabschätzung:
und die
- a-posteriori-Fehlerabschätzung:
mit
Siehe auch Fixpunktsatz von Banach. Für die Beweise siehe z.B. Meister: Seite 30ff oder auch Burg, Haf, Wille, Meister: Bd. I, Seite 72ff, Burg, Haf, Wille, Meister: Bd. VI, Seite 20f.
Newton-Verfahren
BearbeitenSteigung der Tangente:
Mit der Tangente wird ein Dreieck aufgespannt:
oder allgemein
Obiges Beispiel mit der von SciPy bereitgestellten Funktion newton
liefert wieder das gewünschte Ergebnis. Der Solver verwendet je nach gelieferten Informationen das Newton-Raphson-Verfahren (kurz: Newton-Verfahren) oder das später vorgestellte Sekantenverfahren oder das Halley-Verfahren. Details siehe auch [1]. Zum Halley-Verfahren siehe Halley-Verfahren. Es benötigt auch die zweite Ableitung. Wird nur die erste Ableitung angegeben, so kommt das Newton-Verfahren zum Einsatz. Wird keine Ableitung angegeben, so wird das Sekantenverfahren verwendet.
from scipy.optimize import newton def funktion(x): y = x**3 - x + 0.3 return y print (newton(funktion, 0.))
Ausgabe:
0.3389362415949407
Siehe auch Newton-Verfahren.
Heron-Verfahren
BearbeitenZur Berechnung von kann das Heron-Verfahren Anwendung finden.
Newton:
Iteration für und :
Python-Code: Es soll berechnet werden,
import numpy as np def funktion(x, a): y = x**2 - a return y def funktion_diff(x, a): y = 2*x return y def heron(xstart, a, maxit): x_i = xstart for i in np.arange(0, maxit): x_i = x_i - funktion(x_i, a) / funktion_diff(x_i, a) print(x_i) heron(1.0, 5.0, 10)
Ausgabe:
3.0 2.3333333333333335 2.238095238095238 ... 2.23606797749979 2.23606797749979
Zum Prinzip siehe auch Heron-Verfahren.
Sekantenverfahren
BearbeitenIterationsvorschrift:
Startwerte: .
Zur automatischen Berechnung kann einerseits wiederum die SciPy-Funktion newton
verwendet werden. Oder man programmiert das Verfahren von Grund auf selbst. Dies sei hier aber nicht gezeigt. Es ist sehr ähnlich zu den Ausführungen beim Newton- oder Heron-Verfahren.
Siehe auch Sekantenverfahren.
Regula falsi
BearbeitenDie Regula falsi kombiniert das Sekanten- mit dem Bisektionsverfahren. Näheres siehe Regula falsi.
Konvergenz
BearbeitenIterationsverfahren konvergieren i.A. nicht mit jedem Startwert gegen die gesuchte Lösung . Man unterscheidet zwischen anziehenden ( ) und abstoßenden Fixpunkten ( , konvergiert nicht). Vereinfacht gesagt: Wenn der Startwert nahe genug bei der Lösung liegt, so ist der Fixpunkt anziehend.
Die Konvergenzgeschwindigkeit oder Konvergenzordnung : für und . Für muss sein.
Ist
- , so liegt lineare Konvergenz vor
- , es liegt quadratische Konvergenz vor.
Das Newton-Verfahren konvergiert quadratisch, ausgenommen es liegt eine mehrfache Nullstelle vor. Dann konvergiert es nur noch linear. Das Sekantenverfahren: konvergiert mit (Quelle: Knorrenschild: Seite 37).
Nichtlineare Gleichungssysteme - Newton für Systeme
BearbeitenEs soll folgendes Gleichungssystem gelöst werden:
Newton:
mit der Jacobi-Matrix
Die Jacobi-Matrix muss invertierbar sein. Bei der konkreten Anwendung wird aber nicht die Inverse der Jacobi-Matrix berechnet, sondern die Lösung in Form eines linearen GS berechnet.
mit
Mit dem gedämpften Newton-Verfahren kann eine bessere Konvergenz erzielt werden (Schrittweitendämpfung).
Mit dem vereinfachtes Newton-Verfahren erspart man sich die laufende Auswertung der Jacobi-Matrix: . Die Konvergenzgeschwindigkeit ist aber schlechter (nur noch linear anstatt quadratisch).
Nachfolgend ein Python-Beispiel, das von den Funktionen her an Hanke-Bourgeois: Seite 174f angelehnt ist. Es wird der Einfachheit halber die SciPy-Funktion fsolve
verwendet.
import numpy as np from scipy.optimize import fsolve def func(x): return [x[0] - 0.25*np.cos(x[0]) + 0.25*np.sin(x[1]), x[1] - 0.25*np.cos(x[0]) + 0.5*np.sin(x[1])] root = fsolve(func, [0, 0]) print(root)
Ausgabe:
[0.20412903 0.16344858]
Gedruckte Werke (auszugsweise)
Bearbeiten- Burg, Haf, Wille, Meister: Höhere Mathematik für Ingenieure, Band I: Analysis. 9. Auflage, Springer Vieweg, 2011, ISBN 978-3-8348-1218-6
- Burg, Haf, Wille, Meister: Partielle Differentialgleichungen und funktionalanalytische Grundlagen, Höhere Mathematik für Ingenieure, Naturwissenschaftler und Mathematiker (Band VI). 5. Auflage, Vieweg+Teubner, 2010, ISBN 978-3-8348-1294-0
- Hanke-Bourgeois: Grundlagen der Numerischen Mathematik und des Wissenschaftlichen Rechnens. 3. Aufl., Vieweg+Teubner, 2009, ISBN 978-3-8348-0708-3
- Knorrenschild: Numerische Mathematik, Eine beispielorientierte Einführung. 6. Aufl., Hanser, 2017, ISBN 978-3-446-45161-2
- Meister: Numerik linearer Gleichungssysteme. 4. Aufl., Vieweg+Teubner, 2011, ISBN 978-3-8348-1550-7