Skip to main content

2012 | Buch

Optimierung

Statische, dynamische, stochastische Verfahren für die Anwendung

verfasst von: Markos Papageorgiou, Marion Leibold, Martin Buss

Verlag: Springer Berlin Heidelberg

insite
SUCHEN

Über dieses Buch

Das Buch präsentiert eine breite Übersicht über statische, dynamische und stochastische Verfahren der Optimierungstheorie. Dazu gehören sowohl klassische (aber nach wie vor bedeutende) Optimierungsverfahren, die sich in der Anwendung bereits vielfach bewährt haben, als auch jüngere Entwicklungen, die für zukünftige Anwendungen besonders vielversprechend erscheinen.

Bei einem Großteil der Verfahren werden mathematische Ableitungen und Hintergrundinformationen in verständlicher Form mitgeliefert; so ist im Zusammenhang mit der weiterführenden, spezialisierten Literatur ein vertieftes Studium der Sachverhalte erleichtert. Der Text beinhaltet viele Beispiele zur Veranschaulichung der Verfahrensweisen. Darüber hinaus enthalten einige Kapitel eine Anzahl anspruchsvoller Anwendungen mit praktischer Relevanz.

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Einleitung
Zusammenfassung
Die menschliche Gesellschaft ist eine Gesellschaft der Entscheidungen. Ob im individuellen, wirtschaftlichen, staatlichen oder gesamtmenschlichen Bereich, entscheidungsfreudige Verantwortungsträger sind besonders gefragt. Philosophisch betrachtet, könnte man die menschliche Entscheidungsfähigkeit zu einem Ausdruck des menschlichen freien Willens erheben. Dieser Gedanke wird freilich durch die Tatsache relativiert, dass auch im technischen Bereich geeignete Einrichtungen – heutzutage meistens Rechner – gewichtige Entscheidungen treffen, so z. B. wie eine Hausgemeinschaft beheizt werden soll, oder wie die Straßenampeln einer Stadt geschaltet werden sollen, oder ob ein Kernkraftwerk wegen einer Irregularität ausgeschaltet werden sollte oder nicht.
Markos Papageorgiou, Marion Leibold, Martin Buss

Statische Optimierung

Frontmatter
Kapitel 2. Allgemeine Problemstellung der statischen Optimierung
Zusammenfassung
Die allgemeine Problemstellung der statischen Optimierung lautet: Minimiere
$$f(\mathbf{x})\,, \quad \mathbf{x} = \mathbb{R}^n$$
unter Berücksichtigung von (u. B. v.)
$$\mathbf{c}(\mathbf{x}) = \mathbf{0}\,, \quad \mathbf{c} \in \mathbb{R}^m$$
(2.1)
und
$$\mathbf{h}(\mathbf{x}) \leq \mathbf{0}\,, \quad \mathbf{h} \in \mathbb{R}^q\,,$$
(2.2)
wobei f die zu minimierende Gütefunktion, (2.1) die Gleichungsnebenbedingungen und (2.2) die Ungleichungsnebenbedingungen in allgemeiner Form darstellen. Der Vektor x ∈ ℝ n beinhaltet die gesuchten Entscheidungs- oder Optimierungsvariablen. Die Dimensionen der Vektorfunktionen c bzw. h sind m bzw. q. Damit die Problemstellung Sinn macht, muss m < n sein. Gilt nämlich m = n, so ist x aus (2.1) bestimmbar, falls die entsprechenden Teilgleichungen c i (x) = 0, i = 1, …, m, unabhängig sind, und demzufolge gibt es kaum etwas zu optimieren. Bei m > n wäre (2.1) sogar überbestimmt. Für die Anzahl q der Ungleichungsnebenbedingungen gibt es hingegen keine obere Grenze. Im Folgenden werden die Gleichungs- bzw. Ungleichungsnebenbedingungen mit GNB bzw. UNB abgekürzt. Das formulierte Problem ist allgemein auch als Aufgabenstellung der nichtlinearen Programmierung oder mathematischen Programmierung bekannt, s. [140] für einen interessanten geschichtlichen Überblick.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 3. Minimierung einer Funktion einer Variablen
Zusammenfassung
Die in diesem Kapitel behandelte Problemstellung lautet
$$\min_{x \in X} f(x)\,, \quad \text{wobei} \quad X \subset \mathbb{R}\,.$$
(3.1)
Bei der Bestimmung des zulässigen Bereichs X dürfen hier keine Gleichungsnebenbedingungen berücksichtigt werden. Der zulässige Bereich X kann durch h(x) ≤ 0 oder aber durch X = [a 1, b 1] ∪ [a 2, b 2] ∪ … definiert werden, wobei a i , b i , i = 1, 2, … entsprechende Randwerte sind.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 4. Minimierung einer Funktion mehrerer Variablen ohne Nebenbedingungen
Zusammenfassung
Das in diesem Kapitel behandelte Problem lautet
$$\min_{\mathbf{x} \in \mathbb{R}^{n}} f(\mathbf{x})\,. $$
(4.1)
Da die Optimierungsvariablen x 1, …, x n der kürzeren Schreibweise wegen in einem n-dimensionalen Vektor x zusammengefasst werden, spielen Vektor- und Matrixoperationen bei der Bearbeitung der Problemstellung eine zentrale Rolle. Lesern mit weit in der Vergangenheit liegenden Kenntnissen über Vektoren und Matrizen wird daher an dieser Stelle die Lektüre des Anhangs A empfohlen.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 5. Minimierung einer Funktion mehrerer Variablen unter Nebenbedingungen
Zusammenfassung
In diesem Kapitel wird das unrestringierte Problem aus Kap. 4,
$$\min_{\mathbf{x} \in \mathbb{R}^{n}} f(\mathbf{x})\,,$$
(5.1)
in zwei Schritten zur allgemeinen Problemstellung aus Kap. 2 erweitert. Erst wird dazu ein durch Gleichungsnebenbedingungen (GNB) definierter zulässiger Bereich berücksichtigt
$$\min_{\mathbf{x} \in X} f(\mathbf{x})\,, \quad \text{wobei} \quad X = \{\mathbf{x} | \mathbf{c} (\mathbf{x}) = \mathbf{0}\}\,.$$
(5.2)
Später werden zusätzlich Ungleichungsnebenbedingungen (UNB) hinzugenommen, die den zulässigen Bereich weiter einschränken. Es gilt für den zulässigen Bereich
$$X = \{\mathbf{x} | \mathbf{c} (\mathbf{x}) = \mathbf{0}, \mathbf{h}(\mathbf{x}) \leq \mathbf{0}\}\,.$$
(5.3)
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 6. Methode der kleinsten Quadrate
Zusammenfassung
Das Grundprinzip der Methode der kleinsten Quadrate wurde zu Beginn des 19. Jahrhunderts von C.F. Gauß [83] im Zusammenhang mit der Berechnung von Planetenbahnen formuliert. Es handelt sich um einen Spezialfall der im letzten Kapitel behandelten Problemstellung, der wegen seiner großen praktischen Bedeutung in diesem Kapitel getrennt behandelt werden soll.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 7. Lineare Programmierung
Zusammenfassung
Ein wichtiger Spezialfall der in Kap. 5 behandelten Problemstellung entsteht, wenn alle beteiligten Funktionen f(x), c(x), h(x) linear sind. Dieser Spezialfall, der unter dem Namen lineare Programmierung (LP) bekannt ist, stellt die für praktische Anwendungen bei Weitem am meisten verbreitete und verwendete Optimierungsaufgabe dar. Ihre vielfältige Anwendung bei wirtschaftlichen, Transport-, Produktions-, Ingenieur- und weiteren Problemen verdankt die lineare Programmierung ihrer Einfachheit, aber auch und vor allem dem Vorhandensein zuverlässiger numerischer Lösungsalgorithmen zur Bestimmung globaler Minima. Diese Algorithmen, die seit einigen Jahrzehnten in jeder Programmsammlung einer Rechneranlage den Anwendern als Black-Box-Programme zur Verfügung stehen, sind in der Lage, nicht nur die Problemlösung bereitzustellen, sondern gegebenenfalls auch über die Existenz und Vielfalt der Lösung einer spezifischen Problemstellung Auskunft zu erteilen.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 8. Weitere Problemstellungen
Zusammenfassung
Wir werden in diesem Kapitel einige Problemstellungen ansprechen, deren Bedeutung für entsprechende Anwendungen zwar kontinuierlich wächst, deren detaillierte Darlegung aber außerhalb des Rahmens dieses Buches fällt.
Markos Papageorgiou, Marion Leibold, Martin Buss

Dynamische Optimierung

Frontmatter
Kapitel 9. Variationsrechnung zur Minimierung von Funktionalen
Zusammenfassung
Bei den bisher betrachteten Problemstellungen waren die Entscheidungsvariablen x Werte aus dem euklidischen Raum ℝ n oder aus einem Unterraum X ⊂ ℝ n . Bei der dynamischen Optimierung werden Funktionen x(t) einer unabhängigen Variable t, d. h. Elemente des allgemeineren Hilbertraums bestimmt. Da bei unseren Beispielen die unabhängige Variable t oft die Zeit sein wird, wollen wir die entsprechende Methodenlehre als dynamische Optimierung bezeichnen.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 10. Optimale Steuerung dynamischer Systeme
Zusammenfassung
In diesem Kapitel wollen wir uns einem wichtigen Spezialfall des Abschnittes 9.4.1, nämlich dem Problem der optimalen Steuerung dynamischer Systeme zuwenden. Einen Sonderfall von Nebenbedingungen im Sinne von (9.50) stellt die Berücksichtigung der Zustandsgleichung eines dynamischen Systems dar (s. Anhang B).
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 11. Minimum-Prinzip
Zusammenfassung
In diesem Kapitel wird die Problemstellung der optimalen Steuerung dynamischer Systeme von Kap. 10 um die Berücksichtigung von Ungleichungsnebenbedingungen erweitert, die für praktische Anwendungen äußerst wichtig sind. Außerdem werden in Abschn. 11.3.1 Erweiterungen der Problemstellung der optimalen Steuerung durch die Berücksichtigung weiterer Arten von GNB vorgenommen. Die in diesem Kapitel betrachtete Problemstellung der optimalen Steuerung dynamischer Systeme beinhaltet zunächst alle Elemente der Problemstellung von Kap. 10.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 12. Lineare-Quadratische (LQ-)Optimierung dynamischer Systeme
Zusammenfassung
Dieses Kapitel behandelt einen wichtigen Spezialfall der optimalen Steuerung dynamischer Systeme. Es handelt sich um Probleme mit linearen Zustandsgleichungen und quadratischen Gütefunktionalen, die selbst bei hochdimensionalen Systemen die Ableitung optimaler Regelgesetze zulassen. Die Bedeutung der Linearen-Quadratischen(LQ-)Optimierung für die Regelungstechnik ist daher besonders hervorzuheben, bietet sie doch die Möglichkeit des einheitlichen, geschlossenen und transparenten Entwurfs von Mehrgrößenreglern für lineare dynamische Systeme. Zwar sind die meisten praktisch interessierenden Systeme nichtlinear. In der Regelungstechnik ist es aber üblich, eine Linearisierung um einen stationären Arbeitspunkt oder um eine Solltrajektorie vorzunehmen, wodurch lineare Zustandsgleichungen entstehen (s. Abschn. 12.10). Die Fundamente dieses wichtigen Kapitels der Optimierungs- und Regelungstheorie gehen auf die bedeutungsvollen Arbeiten von R.E. Kalman zurück.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 13. Optimale Steuerung zeitdiskreter dynamischer Systeme
Zusammenfassung
Wir haben uns bis jetzt in den Kap. 10 und 11 mit der optimalen Steuerung zeitkontinuierlicher dynamischer Systeme befasst. Die numerische Auswertung dieser Problemstellungen sowie die praktische Implementierung der resultierenden optimalen Steuertrajektorien bzw. Regelgesetze erfordern aber in der Regel den Einsatz elektronischer Rechner, die – bedingt durch entsprechende technologische Entwicklungen – fast ausschließlich digitaler Natur sind. Bei unseren Betrachtungen in diesem Kapitel werden wir von einer zeitdiskreten Problemformulierung ausgehen, die entweder aus der zeitlichen Diskretisierung einer ursprünglich zeitkontinuierlichen Problemstellung oder aber direkt aus einer zeitdiskreten Problemumgebung hervorgegangen sein mag.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 14. Dynamische Programmierung
Zusammenfassung
Die bisherige Behandlung dynamischer Optimierungsaufgaben basierte in erster Linie auf der klassischen Variationsrechnung und den bahnbrechenden Arbeiten von L.S. Pontryagin und seinen Mitarbeitern. Parallel dazu entwickelte aber R.E. Bellman eine alternative Vorgehensweise, die sich auf dem von ihm im Jahr 1952 formulierten Optimalitätsprinzip stützte und zu interessanten Erkenntnissen und Lösungsverfahren geführt hat. Obwohl die Bellmansche Behandlung zumindest zeitkontinuierlicher Aufgabenstellungen einen geringeren Allgemeinheitsgrad als das Minimum-Prinzip vorweist, ist ihre Bedeutung sowohl im Sinne einer theoretischen Ergänzung als auch für spezifische praktische Anwendungen besonders hervorzuheben.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 15. Numerische Verfahren für dynamische Optimierungsprobleme
Zusammenfassung
Die in den Kap. 10, 11 und 13 abgeleiteten notwendigen Optimalitätsbedingungen erlauben die analytische Lösung bestimmter Klassen von dynamischen Optimierungsproblemen. So hat man beispielsweise in Kap. 12 für Probleme mit LQ-Struktur und beliebigen Dimensionen optimale Steuer- und Regelgesetze ableiten können. Ebenso ist uns in Kap. 11 sowie bei einer Reihe von Beispielen und Übungen eine analytische Lösung kleindimensionaler Probleme gelungen. Außer der analytischen Behandlung dynamischer Optimierungsprobleme wurde in Kap. 14 aus dem Optimalitätsprinzip das numerische Verfahren der diskreten dynamischen Programmierung entwickelt. Wie wir gesehen haben, eignet sich dieses Verfahren zwar prinzipiell zur numerischen Lösung dynamischer Problemstellungen unter vielfältigen Nebenbedingungen, durch den exponentiell wachsenden rechentechnischen Aufwand wird aber sein praktischer Einsatzbereich bei wachsenden Problemdimensionen stark eingeschränkt. Es ist das Ziel dieses Kapitels, weitere numerische Verfahren für dynamische Optimierungsprobleme vorzustellen, die uns erlauben, die Optimierungstheorie bei einer Reihe von praktisch bedeutungsvollen Aufgabenstellungen (auch höherer Dimensionen) erfolgreich einzusetzen.
Markos Papageorgiou, Marion Leibold, Martin Buss

Stochastische optimale Regler und Filter

Frontmatter
Kapitel 16. Stochastische dynamische Programmierung
Zusammenfassung
Wir haben uns bereits im zweiten Teil dieses Buches mit Problemstellungen der optimalen Regelung befasst, allerdings haben wir bisher angenommen, dass die auf den Prozess wirkenden Störungen klein sind und keine bekannte Stochastik aufweisen. Bei vielen praktischen Anwendungen ist aber die Problemumgebung innerhalb bestimmter Grenzen ungewiss. In solchen Fällen werden unsichere, problemrelevante Ereignisse und Entwicklungen üblicherweise durch die Einführung entsprechender stochastischer Variablen oder Zufallsvariablen modelliert, deren genaue Werte zum Zeitpunkt der optimalen Entscheidungsfindung zwar unbekannt sind, deren Wahrscheinlichkeitsverteilung aber als gegeben vorausgesetzt wird. Die dynamische Optimierungsaufgabe besteht dann darin, unter Berücksichtigung der üblichen Problemgegebenheiten und der Wahrscheinlichkeitsverteilungen der Zufallsvariablen die Entscheidungsvariablen so festzulegen, dass der Erwartungswert eines Gütefunktionals minimiert wird. Um Grundbegriffe der Wahrscheinlichkeitstheorie aufzufrischen, wird dem Leser an dieser Stelle die Lektüre des Anhangs C empfohlen.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 17. Optimale Zustandsschätzung dynamischer Systeme
Zusammenfassung
Wir haben zu verschiedenen Anlässen festgestellt, so z. B. in den Abschnitten 12.6 und 16.6, dass die Schätzung des Systemzustandes unter Nutzung verfügbarer (unvollständiger) Messinformation eine Voraussetzung für den Einsatz effektiver Regelungs- und Steuerstrategien sein kann. Darüber hinaus ist die Problemstellung der Zustandsschätzung für Zwecke der Systemüberwachung, der Ausfalldetektion u. ä. von besonderer Bedeutung. Wir werden uns in diesem Kapitel mit der Problemstellung der Zustandsschätzung für einige Spezialfälle befassen, die bei einem breiten Spektrum technischer und nichttechnischer Anwendungsfälle entstehen. Für ausführlichere und weitergehende Information wird auf dedizierte Bücher in der Literatur verwiesen.
Markos Papageorgiou, Marion Leibold, Martin Buss
Kapitel 18. Lineare quadratische Gaußsche (LQG-)Optimierung
Zusammenfassung
Wir werden in diesem Kapitel ein besonderes Problem der stochastischen optimalen Regelung mit unvollständiger Information (vgl. Abschn. 16.6) behandeln, das für praktische Anwendungen aufgrund seiner relativ einfachen, selbst bei hochdimensionalen Aufgabenstellungen in Echtzeit ausführbaren Lösung eine große Bedeutung erlangt hat. Es handelt sich um die Minimierung des Erwartungswertes eines quadratischen Gütefunktionals unter Berücksichtigung linearer, durch gaußverteiltes weißes Rauschen gestörter Zustandsgleichungen auf der Grundlage von gestörten Ausgangsgrößenmessungen. Diese Problemstellung kündigte sich bereits in den Abschnitten 12.6 und 16.5 an, als wir feststellten, dass zwar die mittels (deterministischer oder stochastischer) LQ-Optimierung entstehenden Regelgesetze eine vollständige Zustandsrückführung verlangen, dass aber die Messung aller Zustandsvariablen für die meisten praktischen Anwendungen aus technischen bzw. wirtschaftlichen Gründen ausgeschlossen ist. Die Lösungsverfahren dieses Kapitels sind allgemein als LQG-Optimierung oder auch LQG-Regelung bekannt und sind im Wesentlichen auf die Arbeiten von R.E. Kalman zurückzuführen. Wir werden die LQG-Problemstellung für den zeitkontinuierlichen und für den zeitdiskreten Fall in zwei getrennten Abschnitten 18.1 und 18.2 behandeln.
Markos Papageorgiou, Marion Leibold, Martin Buss
Backmatter
Metadaten
Titel
Optimierung
verfasst von
Markos Papageorgiou
Marion Leibold
Martin Buss
Copyright-Jahr
2012
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-540-34013-3
Print ISBN
978-3-540-34012-6
DOI
https://doi.org/10.1007/978-3-540-34013-3

Premium Partner