2018 | OriginalPaper | Chapter
Nichtlineare Optimierung
Activate our intelligent search to find suitable subject content or patents.
Select sections of text to find matching patents with Artificial Intelligence. powered by
Select sections of text to find additional relevant content using AI-assisted search. powered by
Bislang haben wir uns intensiv mit der Optimierung von linearen Zielfunktionen mit linearen Nebenbedingungen beschäftigt und unterschiedliche Lösungsverfahren dazu kennengelernt. Die nichtlineare Optimierung behandelt allgemeine Zielfunktionen mit einem zulässigen Bereich, welcher nicht (nur) durch lineare Nebenbedingungen definiert wird. Je nach Struktur und Eigenschaften gibt es sehr unterschiedliche Methoden zur Optimierung nichtlinearer Zielfunktionen, sodass wir in diesem Kapitel nur eine kleine Auswahl dieser Verfahren vorstellen können. Wir beginnen in Abschn. 4.1 mit allgemeinen Definitionen und Grundlagen sowie den notwendigen Optimalitätskriterien erster und zweiter Ordnung für differenzierbare Zielfunktionen. Anschließend präsentieren wir in Abschn. 4.2 das Gradientenverfahren, welches (möglicherweise) gegen ein lokales Minimum konvergiert. Als weitere Spezialfälle fassen wir in Abschn. 4.3 und Abschn. 4.4 Ergebnisse für nichtlineare Optimierungsprobleme mit konvexen bzw. konkaven Zielfunktionen zusammen. Schließlich präsentieren wir in Abschn. 4.5 mit den Fritz-John-Bedingungen notwendige Optimalitätsbedingungen für stetig differenzierbare Zielfunktionen mit stetig differenzierbaren Nebenbedingungen. Abschließend stellen wir in Abschn. 4.6 das Nelder-Mead-Verfahren vor, welches keinerlei Anforderungen an die Zielfunktion stellt. Aus theoretischer Sicht lassen sich hier keine zuverlässigen Konvergenzeigenschaften angeben, in vielen praktischen Anwendungsfällen liefert das Verfahren jedoch sehr gute Ergebnisse.