Skip to main content
main-content

Über dieses Buch

Dieses zweibändige Werk stellt diejenigen Inhalte der Mathematik zusammen, welche die nachhaltige und sichere Anwendung der Methoden und Theorien in den technischen Ingenieurstudiengängen gewährleisten. Zudem erlernen Sie – geleitet durch zahlreiche Übungsaufgaben – allerlei nützliche Rechentechniken sowie eine Vielfalt an methodischen Herangehensweisen, auch unter Einsatz der Software Matlab.

Wenn Sie sich auf das Erfolgsrezept des didaktischen Lernprinzips „Verstehen – Rechnen – Anwenden“ einlassen, werden Sie sehen, dass Mathematik im Studium nicht nur bewältigt werden kann, sondern auch dazu beiträgt, technische Anwendungen tiefgründiger zu verstehen und Neues zu entwickeln.

In diesem zweiten Band wird zunächst die mehrdimensionale Analysis behandelt, d.h. die Differential- und Integralrechnung von (möglicherweise vektorwertigen) Funktionen in mehreren Variablen. Danach folgen gewöhnliche und partielle Differenzialgleichungen, die zur Modellierung zahlreicher technischer Phänomene gebraucht werden. Eine Einführung in die Optimierung bietet einen Einblick in mathematische Methoden zum Auffinden bestmöglicher Lösungen von ganz unterschiedlichen Fragestellungen.

Der vorliegende zweite Band kann unabhängig von Band 1 gelesen werden, welcher die Themen Vorkurs, Analysis in einer Variablen, Lineare Algebra und Statistik enthält, sofern hinreichende Kenntnisse in dessen Grundlagenthemen vorhanden sind.

Inhaltsverzeichnis

Frontmatter

Analysis in mehreren Variablen

Frontmatter

1. Funktionen von mehreren Variablen – wenn verschiedene Größen zusammenwirken

In Band 1 haben wir Funktionen mit einer Variablen untersucht. Oft hängt aber eine physikalische Größe, eine Gewinnfunktion oder eine sonstige Berechnungsvorschrift von mehreren Variablen ab. Manchmal umfasst auch der Funktionswert selbst mehrere Variablen, ist also ein Vektor. In diesem Kapitel werden wir uns damit beschäftigen, wie man sich solche Funktionen veranschaulichen kann, welche grafischen Darstellungsmöglichkeiten es gibt und wie sich der Stetigkeitsbegriff auf diesen Fall übertragen lässt.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

2. Von Gipfeln und Tälern – Differenzialrechnung für Funktionen von mehreren Variablen

In Band 1, Kap. 6, haben wir das lokale Änderungsverhalten für Funktionen von einer Variablen untersucht. Das zentrale Hilfsmittel war die Ableitung, die wir uns als Tangentensteigung veranschaulichen konnten. Sie hatte sich als nützlich erwiesen, um beispielsweise Funktionen zu linearisieren oder Extremwerte zu bestimmen. In diesem Kapitel werden wir untersuchen, wie sich der Begriff der Ableitung zunächst auf reellwertige Funktionen mit mehreren Variablen verallgemeinern lässt. Wir werden dann sehen, wie sich dieses Handwerkzeug nutzen lässt, um beispielsweise in der Fehlerrechnung mithilfe des totalen Differenzials Fehler abschätzen zu können oder Extremwertaufgaben mit mehreren Variablen zu lösen. Danach werden wir uns mit implizit definierten Funktionen beschäftigen und uns zum Abschluss des Kapitels überlegen, wie wir die Ableitung auch für vektorwertige Funktionen definieren können.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

3. Bilanzieren in der Ebene und im Raum – Integralrechnung für Funktionen von mehreren Variablen

In Band 1, Kap. 7 haben wir gesehen, dass „Integrieren“ letztlich nichts anderes bedeutet, als Funktionswerte über einem Bereich zu bilanzieren und aufzusummieren. So haben wir den zurückgelegten Weg durch Bilanzierung der Geschwindigkeit v(t) berechnet oder die Fläche unter einem Schaubild gewissermaßen durch Aufsummierung unendlich vieler unendlich schmaler Rechtecke. Wenn wir nun Größen bilanzieren wollen, die von mehreren Variablen abhängen, so führt dies auf den Begriff des mehrdimensionalen Integrals. Mit seiner Hilfe lässt sich beispielsweise die Masse eines Körpers durch Bilanzierung, d. h. Integration, seiner Dichte ermitteln.Zahlreiche weitere physikalische Größen wie Flächen- und Massenträgheitsmomente, Schwerpunkte oder Ladungen werden ebenfalls durch mehrdimensionale Integration berechnet. In diesem Kapitel werden wir mit dem einfachsten Fall beginnen, dem Integral einer Funktion von zwei Variablen über einem Rechteck. Danach verallgemeinern wir unsere Überlegungen auf Integrale über Normalbereichen, bevor wir Integrale über dreidimensionalen Integrationsbereichen in Angriff nehmen. Es wird sich herausstellen, dass es bei manchen Geometrien sinnvoll ist, geeignete Transformationsformeln zu verwenden. Die wichtigsten davon werden wir uns daher erarbeiten. Zum Schluss überlegen wir uns, wie wir mehrdimensionale Integrale näherungsweise numerisch berechnen können.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

4. Kurven – kreuz und quer durch den Raum

Gegenstände bewegen sich in den seltensten Fällen geradlinig durch den Raum – meistens folgen sie mehr oder weniger komplizierten Bahnen. Aus mathematischer Sicht handelt es sich dabei um räumliche Kurven, ganz gleich ob es sich um die Bahn eines Planeten, die Route eines Flugzeugs oder die Flugbahn eines Fußballes handelt, den der Schütze geschickt ins Tor lenkt. Aber auch für den Ingenieur sind Kurven interessant, die beispielsweise die Bahn eines Elektrons im Magnetfeld oder die Bewegung einer Schwinge in einem Koppelgetriebe beschreiben. Im Bauingenieurwesen wiederum werden Kurven für die Trassierung von Straßen- oder Schienenwegen oder die Konstruktion von Brücken benötigt. Wir sind also buchstäblich von Kurven umgeben – vom kleinsten Maßstab bis hin zu astronomischen Dimensionen. Dieses Kapitel vermittelt das mathematische Handwerkszeug, um Kurven in der Praxis einsetzen zu können.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

5. Integrale über Kurven – das Kurvenintegral im Rn

Beim klassischen eindimensionalen Riemann-Integral integriert man über ein Intervall $$[a,b]$$[a,b] der reellen Achse. Wir erweitern nun den Integralbegriff, indem wir als Integrationsbereiche Kurven C im $$\mathbb{R}^{n}$$Rn betrachten. Diese Erweiterung führt zum Kurvenintegral. Integriert man eine reellwertige Funktion $$f:\mathbb{R}^{n}\to\mathbb{R}$$f:Rn→R über eine Kurve C, so spricht man vom Kurvenintegral erster Art oder eben vom Kurvenintegral. Integriert man ein Vektorfeld $$\boldsymbol{v}:\mathbb{R}^{n}\to\mathbb{R}^{n}$$v:Rn→Rn über eine Kurve C, so hat man es mit einem Kurvenintegral zweiter Art oder einem Arbeitsintegral zu tun. In den Anwendungen ist zumeist n = 2 (ebene Kurven) oder n = 3 (räumliche Kurven). Das Kurvenintegral erster Art wird beispielsweise verwendet, wenn auf C eine linienhafte Masse- oder Ladungsverteilung gegeben und die Gesamtmasse oder Gesamtladung auf C zu berechnen ist. Das Kurvenintegral zweiter Art wird in der Physik benötigt, wenn man die Arbeit zu berechnen hat, die benötigt wird, um eine Masse oder eine Ladung in einem Kraftfeld längs einer Kurve C zu bewegen.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

6. Flächen und Integrale über Flächen im ℝ3

Neben Kurven und räumlichen Bereichen spielen Flächen im $$\mathbb{R}^{3}$$R3 bei vielen Ingenieuranwendungen eine wichtige Rolle. Wir diskutieren die Darstellung einer Fläche S im $$\mathbb{R}^{3}$$R3 und berechnen den Flächeninhalt $$|S|$$|S|. Die Berechnung von $$|S|$$|S| führen wir auf ein ebenes Bereichsintegral zurück, wie wir es bereits kennen. Ist auf der Fläche S eine skalare Funktion f gegeben, etwa eine Massedichte oder Ladungsdichte, so ergibt sich die Gesamtmasse oder die Gesamtladung mit dem Flächenintegral erster Art oder kurz: dem Flächenintegral der Funktion f auf S. In der Strömungsmechanik betrachtet man den Durchsatz eines strömenden Fluids durch eine Fläche, die entweder offen oder geschlossen sein kann. Bei der Formulierung von Erhaltungssätzen der Strömungsmechanik oder den Maxwell-Gleichungen spielen Integrale über Oberflächen von Körpern eine zentrale Rolle. Integriert man ein Vektorfeld $$\boldsymbol{v}:\mathbb{R}^{n}\to\mathbb{R}^{n}$$v:Rn→Rn über einer Fläche S, so hat man es mit einem Flächenintegral zweiter Art oder einem Flussintegral zu tun. Die Berechnung des Fluss des elektrischen bzw. des magnetischen Felds bezüglich einer Fläche $$S\subset\mathbb{R}^{3}$$S⊂R3 sind bekannte Aufgaben aus der Elektrostatik und Elektrodynamik.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

7. Vom Ableiten und Integrieren von Feldern – Vektoranalysis und Integralsätze

Die Vektoranalysis beschäftigt sich mit Vektorfeldern im $$\mathbb{R}^{2}$$R2 und im $$\mathbb{R}^{3}$$R3. Die Differenzial- und Integralrechnung für skalare Funktionen $$f:\mathbb{R}^{n}\to\mathbb{R}$$f:Rn→R wird für Vektorfelder, also für vektorwertige Funktionen $$\boldsymbol{v}:\mathbb{R}^{n}\to\mathbb{R}^{n}$$v:Rn→Rn, verallgemeinert. Die Begriffe „Divergenz“ und „Rotation“ sind neue Ableitungsbegriffe für Vektorfelder, die durch partielle Ableitungen erklärt sind, dabei aber anschauliche Interpretationen zulassen. Mit den Integralsätzen von Gauß und Stokes erhalten wir Querverbindungen zwischen dem Kurvenintegral, dem Flächenintegral und dem Bereichsintegral, die das Gebäude der mehrdimensionalen Analysis vervollständigen und abrunden. Die Inhalte der Aussagen der Vektoranalysis sind meist einsichtig und anschaulich verständlich, denn sie können als Erhaltungsaussagen formuliert werden. In der Physik und in der Technik wird die Vektoranalysis hauptsächlich in der Elektrodynamik und der Strömungstheorie benötigt.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

Differenzialgleichungen

Frontmatter

8. Differenzialgleichungen – Grundbegriffe und erste Beispiele

Differenzialgleichungen sind Gleichungen, die eine oder mehrere Ableitungen einer gesuchten Funktion mit bekannten Funktionen oder mit der gesuchten Funktion selbst in eine Beziehung setzen. Sie nehmen einen breiten Raum in Naturwissenschaften und Technik ein, denn viele Bewegungs- und Ausgleichsphänomene werden durch Differenzialgleichungen beschrieben. Differenzialgleichungen entstehen z. B. dadurch, dass in Anwendungen Funktionen und ihre Ableitungen in eigenständigen Rollen auftauchen: So ist die Ableitung einer zurückgelegten Wegstrecke die Momentangeschwindigkeit. Naturgesetze bringen diese Funktionen in einen Zusammenhang und man erhält Differenzialgleichungen. In anderen Situationen gibt es Größen, die sich am leichtesten über ihr Änderungsverhalten beschreiben lassen. Das Änderungsverhalten hängt dabei aber wieder vom aktuellen Wert der betrachteten Größe ab. Auch auf diese Weise erhält man Differenzialgleichungen.Gemeinsam ist allen Differenzialgleichungen, dass eine Funktion gesucht ist. Zur Lösung von Differenzialgleichungen benötigen wir Kenntnisse aus Integral- und Differenzialrechnung, bei Systemen auch aus der Matrizenrechnung. Es gibt verschiedene Techniken, von denen die wichtigsten in den folgenden Abschnitten behandelt werden. Welches das richtige Lösungsverfahren ist, orientiert sich an den Eigenschaften der Differenzialgleichung, beispielsweise der Ordnung oder der Linearität der Gleichung. Manche dieser Verfahren sind recht aufwendig, und für manche Differenzialgleichungen gibt es überhaupt keine passenden Lösungsverfahren, um sie geschlossen zu lösen. Wir werden daher auch die Grundidee von Verfahren zur numerischen Lösung von Differenzialgleichungen vorstellen.Wir verzichten hier weitgehend auf theoretische Aussagen, unter welchen Umständen eine Differenzialgleichung lösbar ist und ob die Lösung eindeutig bestimmt ist. Vielmehr zeigen wir, welche Lösungsverfahren es für typische wichtige Differenzialgleichungen gibt, und wie man entscheidet, welches Verfahren für welche Gleichung angewendet werden kann.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

9. Differenzialgleichungen erster Ordnung

In diesem Kapitel werden Differenzialgleichungen erster Ordnung behandelt, d. h., Differenzialgleichungen, die neben der gesuchten Funktion selbst nur deren erste Ableitung beinhalten. Diese Differenzialgleichungen können über das Richtungsfeld geometrisch interpretiert werden. Daraus kann man eine erste Vorstellung über den Verlauf möglicher Lösungskurven erhalten. Mit dem Verfahren „Trennung der Variablen“ kann man bei vielen (aber nicht allen!) Differenzialgleichungen erster Ordnung eine exakte Lösung bestimmen. Wenn das nicht möglich ist, kann man Näherungsverfahren verwenden, die auf einer Auswertung des Richtungsfeldes beruhen.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

10. Lineare Differenzialgleichungen mit konstanten Koeffizienten

Lineare Differenzialgleichungen mit konstanten Koeffizienten erster und zweiter Ordnung kommen in vielen Anwendungen vor. In der Elektrotechnik treten sie bei Auf- und Entladevorgängen, bei elektrischen Schwingkreisen und bei Wechselstromkreisen auf. In der Mechanik beschreiben sie Feder-Dämpfer-Systeme und in der Thermodynamik Aufheizungs- und Abkühlungsprozesse.Will man lineare Differenzialgleichungen mit konstanten Koeffizienten lösen, so wendet man auch hier ein zweistufiges Verfahren an: Man löst zunächst die homogene Gleichung und sucht dann eine spezielle Lösung der inhomogenen Gleichung.Die homogene Gleichung löst man, indem man sie durch einen Exponentialansatz in eine algebraische Gleichung überführt, die einfach zu lösen ist. Für die inhomogene Gleichung verwendet man den „Ansatz vom Typ der rechten Seite“, auch Störgliedansatz genannt.Die beschriebenen Verfahren lassen sich auch auf Differenzialgleichungen mit konstanten Koeffizienten übertragen, deren Ordnung größer als 2 ist.Der Exponentialansatz wird ebenfalls für Systeme von Differenzialgleichungen mit konstanten Koeffizienten verwendet. Dabei ergibt sich die Aufgabe, Eigenwerte einer Matrix zu berechnen.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

11. Laplace-Transformation und ihre Anwendung auf Differenzialgleichungen

Mit dem Exponentialansatz haben wir in Kap. 10 für Differenzialgleichungen mit konstanten Koeffizienten ein Verfahren kennengelernt, bei dem das Lösen einer Differenzialgleichung auf das wesentlich einfachere Lösen einer algebraischen Gleichung zurückgeführt wird.Mithilfe der Laplace-Transformation ist es ebenfalls möglich, aus Differenzialgleichungen algebraische Gleichungen zu bekommen und auf diesem Weg die Differenzialgleichung zu lösen. Dieses vor allem in der Regelungstechnik beliebte Verfahren bietet noch andere Vorteile. Die Anfangsbedingungen fließen direkt in das Lösungsverfahren mit ein, und die Berücksichtigung von Resonanz ist weniger aufwendig. In manchen Fällen braucht man die Differenzialgleichung überhaupt nicht mehr aufstellen, sondern kann von der sog. Übertragungsfunktion ausgehen, die in der Regelungstechnik eine eigenständige Bedeutung hat.In diesem Kapitel erklären wir, was eine Laplace-Transformation ist und wie man sie berechnet. Weiter zeigen wir, wie man die Laplace-Transformation auf das Lösen von Differenzialgleichungen anwendet.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

12. Partielle Differenzialgleichungen – Grundbegriffe und erste Beispiele

Partielle Differenzialgleichungen beschreiben viele wichtige Naturphänomene. Beispiele sind Schwingungen fester Körper, die Strömung von Flüssigkeiten und Gasen, die Diffusion chemischer Stoffe und die Wärmeleitung in Materialien ebenso wie die Ausbreitung elektromagnetischer Wellen. In diesem Kapitel erklären wir, was unter einer partiellen Differenzialgleichung zu verstehen ist. Wir stellen eine Reihe von typischen partiellen Differenzialgleichungen, wie sie in unterschiedlichen physikalischen und technischen Anwendungen vorkommen, vor. Erste einfache partielle Differenzialgleichungen können wir lösen und wir erhalten so eine Vorstellung, wie Lösungen partieller Differenzialgleichungen grundsätzlich aussehen. Wir zeigen, wie physikalische Erhaltungseigenschaften auf partielle Differenzialgleichungen führen, und wir werden sehen, dass auch Anfangs- und Randbedingungen physikalisch motiviert sind.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

13. Partielle Differenzialgleichungen zweiter Ordnung

Die Wellengleichung, die Wärmeleitungs- bzw. Diffusionsgleichung und die Laplace-Gleichung sind sehr unterschiedliche Vertreter der partiellen Differenzialgleichungen zweiter Ordnung. Wir werden in diesem Kapitel sehen, dass diese drei Gleichungen das jeweils einfachste Beispiel für die drei unterschiedlichen Typen von linearen partiellen Differenzialgleichungen zweiter Ordnung darstellen. Um die Eigenschaften der drei Typen besser zu verstehen, untersuchen wir zunächst Anfangswertprobleme, d. h. physikalische Probleme, die auf so großen Bereichen betrachtet werden, dass der Einfluss der Randbedingungen vernachlässigbar ist. Daran können wir gut die Eigenschaften von Wellengleichung und Wärmeleitungs- bzw. Diffusionsgleichung vergleichen. In der Praxis relevant sind Anfangsrandwertprobleme für Wellen und Diffusion. Hier handelt es sich um Fragestellungen, bei denen die Differenzialgleichung nur auf einem endlichen Gebiet ihre Gültigkeit hat und das Verhalten am Rand vorgeschrieben ist. Bei der Wellengleichung und der Wärmeleitungsgleichung müssen zusätzlich Anfangswerte vorgeschrieben werden. Bei der Laplace-Gleichung, die kein zeitabhängiges Verhalten hat, untersucht man reine Randwertprobleme. Wir stellen den Separations- oder Produktansatz vor, bei dem man annimmt, dass sich die Lösung der partiellen Differenzialgleichung als Produkt aus einfacheren Funktionen darstellen lässt.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

Optimierung

Frontmatter

14. Einführung in die Optimierung

Dieses Kapitel liefert eine Einführung in die mathematische Optimierung. Wir beschreiben, wie sich aus einer praktischen Anwendungsaufgabe zur bestmöglichen Gestaltung eines Prozesses oder Produktes ein Optimierungsproblem entwickeln lässt. Dabei gehen wir insbesondere auf die Unterscheidung zwischen einer mathematischen Optimierungsaufgabe, bei der das Ziel, die variablen Größen und auftretende Restriktionen quantifizierbar und klar definiert sind, und dem im Alltag häufig eher als kontinuierlichen Verbesserungsprozess verstandenen Begriff der Optimierung ein.Nach einer ausführlichen Vorstellung verschiedener Anwendungsbeispiele besprechen wir typische Klassifizierungen und eine Standardformulierung für Optimierungsprobleme. Anhand dieser Beschreibung diskutieren wir grundlegende Lösungseigenschaften der Aufgabe wie: Hat das Problem eine Lösung? Wenn ja, ist diese eindeutig? Wie robust ist sie gegenüber Störungen in der Aufgabenstellung? Die hier eingeführten Beispiele werden im gesamten Teil über Optimierung immer wieder aufgegriffen und ausgearbeitet, um die vorgestellten Resultate und Methoden zu erläutern.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

15. (Reelle) lineare Optimierung

In diesem Kapitel befassen wir uns mit linearen Optimierungsaufgaben, d. h. Problemen, bei denen sowohl die Zielfunktion als auch alle Restriktionsfunktionen linear bezüglich der Optimierungsvariable sind. Wir stellen verschiedene und zueinander äquivalente Normalformen vor, die als Basis für die Entwicklung und Anwendung von Lösungsverfahren dienen. Neben grafischen Methoden für Probleme mit zwei Optimierungsvariablen steht vor allem das Simplexverfahren in verschiedenen Varianten im Fokus. In diesem Zusammenhang wird auch der Hauptsatz der linearen Optimierung vorgestellt. Schließlich widmen wir uns der Dualität von linearen Optimierungsproblemen. Diese liefert u. a. Aussagen über die Sensitivität einer Lösung, welche die Empfindlichkeit gegenüber Störungen beschreibt. Außerdem bietet sie über das Konzept von dualen Variablen bereits eine Hinführung zur nichtlinearen Optimierung. Alle Resultate werden durchgängig an einem Beispiel zur optimalen Produktion von Autos sowie vielen weiteren Anwendungsbeispielen verdeutlicht.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

16. Grundkonzepte der ganzzahligen linearen Optimierung

Mittelpunkt dieses Kapitels ist die Untersuchung von (speziell linearen) Optimierungsproblemen, deren Optimierungsvariable nur ganzzahlige oder sogar binäre Werte annehmen dürfen. Hierzu gehören einerseits Probleme wie Transport-, Fluss-, Netzwerk- oder auch Routenprobleme, deren spezielle Struktur der auftretenden Systemmatrix dazu führt, dass die Lösung unter gewissen Voraussetzungen automatisch ganzzahlig wird. Andererseits gibt es zahlreiche Aufgaben, für die man spezielle Methoden entwickeln muss, um die Ganzzahligkeit einer Lösung zu garantieren. Hierfür stellen wir Branch-and-Bound-Methoden vor und illustrieren diese an unterschiedlichen Anwendungsbeispielen.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

17. Nichtlineare Optimierung

In diesem Kapitel werden Optimierungsprobleme behandelt, bei denen die Zielfunktion sowie die Gleichungs- und Ungleichungsrestriktionen auch nichtlinear bzgl. der Optimierungsvariablen sein dürfen. Ausgehend von unbeschränkten Problemen, deren Lösung im Wesentlichen auf eine Kurvendiskussion der Zielfunktion führt, werden notwendige und hinreichende Optimalitätsbedingungen für Probleme mit zuerst nur Gleichungsrestriktionen, später dann auch Ungleichungsbeschränkungen entwickelt und an vielen Beispielen illustriert. Neben Hilfestellungen für eine grafische Lösung liefern die Optimalitätsbedingungen das wichtigste Werkzeug, um eine Lösung analytisch zu berechnen, eine (z. B. numerisch oder auch heuristisch) bestimmte Lösung zu verifizieren oder sogar numerische Algorithmen zu entwickeln. Das abschließende Thema der Sensitivitätsanalyse ist mathematisch anspruchsvoll, liefert jedoch vor allem für die Praxis sehr wertvolle Informationen über die Sensitivitätsableitungen einer Lösung, welche eine Abschätzung der Lösung bei leicht geänderten Parametern in der Aufgabe erlauben, ohne die geänderte Aufgabe explizit lösen zu müssen.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

18. Iterative numerische Verfahren für Optimierungsprobleme

Da die meisten praktischen Anwendungsaufgaben nicht mehr analytisch lösbar sind, beschreiben wir in diesem abschließenden Kapitel numerische Lösungsmethoden für nichtlineare Optimierungsprobleme. Numerische Verfahren beinhalten die automatisierte bzw. algorithmische Lösung einer mathematischen Aufgabe mit dem Rechner und lassen sich in zwei Gruppen unterteilen: Direkte Verfahren wie z. B. der Gauß-Algorithmus oder das Simplexverfahren berechnen (bis auf Rundungsfehler) eine exakte Lösung und besitzen eine abhängig von der Größe der Aufgabe vorgegebene Rechenkomplexität. Indirekte bzw. iterative Verfahren wie z. B. das Newton- oder auch das Gauß-Seidel-Verfahren hingegen berechnen eine Lösung nur näherungsweise, wobei die frei wählbare Anzahl der Iterationsschritte im Allgemeinen die Genauigkeit bestimmt. Viele der heutzutage genutzten numerischen Optimierungsmethoden gehören zu den indirekten Verfahren. Auch für lineare Probleme kommen mittlerweile neben dem direkten Simplexverfahren häufig indirekte Verfahren zum Einsatz. Wir stellen drei wichtige Klassen von indirekten Optimierungsverfahren vor: die Abstiegsverfahren, die Lagrange-Newton- bzw. SQP-Verfahren sowie die Innere-Punkte-Verfahren. Wir erklären die grundlegende Idee und geben Hinweise zur Konvergenz der Verfahren. Schließlich beschreiben wir mögliche einfache Realisierungen und geben Hinweise zu Erweiterungsmöglichkeiten. Für ausführlichere Details wird auf die weitere Fachliteratur verwiesen. Im gesamten Kapitel bezeichnen wir den Iterationsindex mit r, welcher für skalare Größen unten und für vektorielle Größen oben notiert wird. Neben der Iterierten $$\boldsymbol{x}^{(r)}\in\mathbb{R}^{n}$$x(r)∈Rn für die gesuchte Minimalstelle werden mitunter auch andere iterierte Größen wie z. B. Multiplikatoren $$\boldsymbol{\lambda}^{(r)}\in\mathbb{R}^{m}$$λ(r)∈Rm, $$\boldsymbol{\mu}^{(r)}\in\mathbb{R}^{k}$$μ(r)∈Rk oder auch Schrittweiten $$\alpha_{r}\in\mathbb{R}$$αr∈R berechnet.

Laurenz Göllmann, Reinhold Hübl, Susan Pulham, Stefan Ritter, Henning Schon, Karlheinz Schüffler, Ursula Voß, Georg Vossen

Backmatter

Weitere Informationen

Premium Partner

Stellmach & BröckersBBL | Bernsau BrockdorffMaturus Finance GmbHPlutahww hermann wienberg wilhelm

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Best Practices zu agiler Qualität

Eine der wichtigsten Erkenntnisse der letzten Jahre aus agilen Kundenprojekten ist, dass die meisten agil arbeitenden Projekte entwicklergetrieben sind und deshalb leider meistens die Test- und QS/QM-Themen zu kurz zu kommen drohen. So gibt es immer noch Scrum-Befürworter, die ernsthaft der Meinung sind, dass es in agilen Projekten nur noch zwei Arten von Tests gibt: Unittests (durch die Entwickler) und Akzeptanztests (durch den Product Owner). Das ist ein sehr einfaches und bequemes Bild, vor allem aber ist es zu einfach und vielen Produktrisiken schlichtweg nicht angemessen. Jetzt gratis downloaden!

Bildnachweise