Skip to main content
main-content

Über dieses Buch

Dieses vierfarbige Lehrbuch bietet in einem Band ein lebendiges Bild der „gesamten“ Mathematik für Anwender. Angehende Ingenieure und Naturwissenschaftler finden hier die wichtigen Konzepte und Begriffe ausführlich und mit vielen Beispielen erklärt.

Im Mittelpunkt stehen das Verständnis der Zusammenhänge und die Beherrschung der Rechentechniken.

Herausragende Merkmale sind:

durchgängig vierfarbiges Layout mit mehr als 1500 Abbildungen prägnant formulierte Kerngedanken bilden die Abschnittsüberschriften Selbsttests in kurzen Abständen ermöglichen Lernkontrolle während des Lesens farbige Merkkästen heben das Wichtigste hervor mehr als 100 Anwendungsboxen erläutern Themen wie „Geometrie hinter dem GPS“, „Pageranking bei Google“ oder „harmonischer Oszillator“ Vertiefungsboxen geben einen Ausblick auf weiterführende Themen Zusammenfassungen zu jedem Kapitel sowie Übersichtsboxen mehr als 750 Verständnisfragen, Rechenaufgaben und Anwendungsprobleme

Inhaltlich spannt sich der Bogen von elementaren Grundlagen über die Analysis einer Veränderlichen, der linearen Algebra, der Analysis mehrerer Veränderlicher bis hin zu fortgeschrittenen Themen der Analysis, die für die Anwendung besonders wichtig sind, wie partielle Differenzialgleichungen, Fourierreihen und Laplacetransformationen. Numerische Konzepte sind integraler Bestandteil der Kapitel. Der Wahrscheinlichkeitsrechnung und Statistik ist einer der sechs Teile des Buchs gewidmet.

Zusätzlich gibt es zum Buch die Website matheweb, die Ihnen u.a. bietet:

Bonusmaterialien zu zahlreichen Kapiteln Hinweise, Lösungswege und Ergebnisse zu allen Aufgaben Zusatzmaterialien wie Maple-Worksheets zu verschiedenen Themen des Buchs die Möglichkeit, zu den Kapiteln Fragen zu stellen

Das Buch wird allen Anwendern der Mathematik

vom Beginn des Studiums über höhere Semester bis in die Berufspraxis hinein ein langjähriger verlässlicher Begleiter sein. Für die 4. Auflage ist es um zahlreiche Boxen mit Anwendungsbeispielen in MATLAB((R)) und R ergänzt worden.

Stimmen zur 1. Auflage

„Ein Lehrbuch, das Maßstäbe setzt!“ Prof. Dr. Bernd Simeon, TU Kaiserslautern

„Endlich ein deutschsprachiges Mathematikbuch, das so richtig Spaß macht.“ Prof. Dr. Martin Pohl, Hochschule Regensburg

„Ein komplett neues und einmaliges Konzept: optisch und didaktisch geschrieben mit der Anschaulichkeit eines Schulbuches; mathematisch jedoch immer exakt und auch anspruchsvolle Themen erfassend. Meine Kollegen und ich sind begeistert; …“ Dr. Volker Pluschke, Universität Halle-Wittenberg

Inhaltsverzeichnis

Frontmatter

Einführung und Grundlagen

Frontmatter

1. Mathematik – Wissenschaft und Werkzeug

Das vorliegende Werk versteht sich als ein Lehrbuch, das angehende Ingenieure, Naturwissenschaftler und Mathematiker im Studium, aber auch noch im späteren Berufsleben begleiten soll. Das Buch zeigt einen Weg in die Gedankenwelt der Mathematik, der Sie, die Leserinnen und Leser, befähigen soll, Mathematik zu verstehen und anzuwenden, also auftretende Probleme analysieren, mathematisch fassen und nach Möglichkeit auch lösen zu können.Es ist uns, den Autoren, sehr wohl bewusst, dass dieser Weg für Sie mit Mühen und sehr viel Arbeit verbunden ist. Aber es war unser besonderes Anliegen, es Ihnen so anregend, motivierend und verständlich wie möglich zu machen. Der vorgeschlagene Weg ist nicht steil, er umgeht verschiedene Hindernisse, vermeidet so manchen steilen Gipfel und führt doch ein gutes Stück hinauf. Auch versäumen wir es nicht, immer wieder innezuhalten für einen Rückblick auf das schon Erreichte, für eine Vorausschau und vor allem auch für einen Rundblick, um zu demonstrieren, was von der errungenen Position aus schon alles in benachbarten Gebieten erkennbar ist.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

2. Logik, Mengen, Abbildungen – die Sprache der Mathematik

Wer eine neue Sprache lernen will, benötigt ein gewisses Grundvokabular, um sich einigermaßen zurechtzufinden und seine Kenntnisse auf dieser Basis weiter auszubauen. In einer Fremdsprache sind das viele hundert, ja eher mehrere tausend Vokabeln. In der Mathematik kommt man für den Anfang mit sehr viel weniger Wörtern aus.Viel ist dabei schon gewonnen, wenn man lernt, gewohnte Begriffe exakt zu verwenden und präzise Formulierungen lesen und verstehen zu können. Das mag simpel klingen, macht aber am Anfang oft Schwierigkeiten. Die saubere Handhabung der Sprache führt über Abstraktion zur Aussagenlogik, und diese wiederum ist die Grundlage der gesamten Digitalelektronik und damit der Grundstein der heutigen Informationsgesellschaft.Natürlich ist präzises Formulieren alleine zu wenig, man muss auch wissen, worüber man überhaupt sprechen soll. Viele Begriffsbildungen in der Mathematik beruhen auf Mengen und Abbildungen, und diesen werden wir gebührenden Raum widmen.Äußerst bekannte Mengen sind solche von Zahlen. Sicher spielen Zahlen in der Mathematik eine wichtige Rolle, die Bedeutung des bloßen Zahlenrechnens wird von Außenstehenden allerdings meist überschätzt. Es ist demnach auch weniger das konkrete Rechnen, das uns hier bei der Betrachtung der Zahlen interessiert. Es sind vielmehr die inneren Strukturen und allgemeinen Eigenschaften, die sie haben – der Beginn eines Analyseprozesses, der uns im Laufe dieses Buches bis zu den Hilberträumen der Funktionalanalysis und darüber hinaus führen wird.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

3. Rechentechniken – die Werkzeuge der Mathematik

Wenn man seine ersten Kontakte mit der Mathematik macht, geht es einem darum, Dinge auszurechnen. Je weiter man sich mit dem Gebiet beschäftigt, desto stärker rückt der Aspekt des konkreten Rechnens in den Hintergrund und desto mehr geht es um Ansätze und allgemeine Strukturen. Der naive Glaube, mit einem Taschenrechner oder zumindest Computeralgebrasystem könne man alle mathematischen Probleme lösen, erweist sich als gravierender Irrtum.Doch so fortgeschritten die Techniken auch sein mögen, die man im Lauf der Zeit erlernt, sie müssen doch auf einem soliden Fundament stehen. Nur dann kann man sie wirklich einsetzen. Dabei geht es vielleicht nicht so sehr um die Grundrechenarten und ihre Anwendung auf natürliche oder reelle Zahlen – das nimmt einem wirklich meist der Taschenrechner ab.Solide Kenntnisse des Bruchrechnens, der Wurzeln und Potenzen, des Lösens von Gleichungen und Ungleichungen sind hingegen unabdingbar als Grundlage für fast alles, was später kommt. Noch so ausgefeilte Computeralgebrasysteme können das Beherrschen grundlegender Rechenfertigkeiten nicht ersetzen.Derartige Dinge werden wir in diesem Kapitel ausführlich wiederholen, dabei aber auch gleich einige Bezeichnungsweisen einführen, die uns den Rest dieses Buches begleiten werden. Wenn das alles zur Verfügung steht, werden wir als Krönung dieses Kapitels eine Beweistechnik kennenlernen, die viele als die mächtigste der gesamten Mathematik ansehen – die vollständige Induktion.

Tilo Arens, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel, Frank Hettlich

4. Elementare Funktionen – Bausteine der Analysis

Die Mathematik findet ihre Anwendung, wenn natürliche Phänomene theoretisch erfasst und ergründet werden sollen. Wir bilden abstrakte Modelle von Teilaspekten der Wirklichkeit, letztendlich um natürliche oder technische Gegebenheiten besser zu verstehen oder am Rechner zu simulieren. Dabei werden die Abhängigkeiten von verschiedenen Größen durch Abbildungen bzw. Funktionen beschrieben. Neben den Zahlen sind somit die Funktionen zentrale Objekte, mit denen sich Mathematik beschäftigt.Eine bestimmte Klasse von Funktionen steht dabei am Anfang, nämlich die aus der Schule geläufigen Abbildungen von reellen Zahlen auf reelle Zahlen. Genauer sprechen wir von reellwertigen Funktionen einer Veränderlichen. Bevor wir uns aber einen analytischen Zugang zu diesen Objekten im zweiten Teil verschaffen, ist es sinnvoll einige Archetypen von Funktionen vorab herauszugreifen, die uns später ständig begegnen werden. Eine solide Routine im Umgang mit Polynomen, Exponentialfunktion und trigonometrischen Funktionen ist unerlässlich für die weitere Entdeckungsreise in die Mathematik.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

5. Komplexe Zahlen – Rechnen mit imaginären Größen

Der Schritt hin zu den komplexen Zahlen wird oft als schwer greifbarer Einstieg in die „Höhere Mathematik“ empfunden. Dabei handelt es sich nur um eine konsequente Erweiterung in der Ausgestaltung unseres Zahlenbereichs, so wie man von den natürlichen zu den ganzen Zahlen, zu den rationalen Zahlen und schließlich zu den reellen Zahlen gelangt. Frühzeitig werden diese Zahlen hier vorgestellt und weitere Beispiele finden sich in den folgenden Kapiteln, sodass man sich an den Umgang auch mit diesen Zahlen gewöhnen kann.Die faszinierenden Möglichkeiten, die sich durch dieses Zahlensystem ergeben, werden sich im Laufe der weiteren Kapitel erschließen. So werden wir im Komplexen auf einen der Höhepunkte der Analysis stoßen, eine enge Beziehung zwischen der Exponentialfunktion und den trigonometrischen Funktionen. Dies ist ein Zusammenhang, der in vielen Situationen die Darstellung von Schwingungsphänomenen erheblich erleichtert. Es ist der Grund dafür, dass in der Physik, der Elektrotechnik und vielen weiteren Anwendungen imaginäre Zahlen heute zur selbstverständlichen Routine gehören.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

Analysis einer reellen Variablen

Frontmatter

6. Folgen – der Weg ins Unendliche

Eine der wichtigsten Errungenschaften der Mathematik ist die konkrete Beschreibung vom Unendlichen. Dadurch wurde das Unendliche greifbar und mathematischen Aussagen zugänglich. Die Geschichte der Naturwissenschaften und Technik ist voll von Irrtümern, die man bei dem Versuch begann, Unendlichkeit zu fassen. Sie zeigen, wie komplex eigentlich unser heutiger Begriff des „Grenzwerts“ ist.Folgen spielen bei der Beschreibung des Unendlichen eine entscheidende Rolle und sind daher eines der wichtigsten Handwerkszeuge in der Analysis. Zahlreiche neue, nützliche Begriffe lassen sich mit ihrer Hilfe definieren und erklären. Andererseits sind Folgen Grundlage für ganz alltägliche Dinge geworden: Ständig werden in Taschenrechnern, MP3-Playern oder für Wettervorhersagen Folgenglieder berechnet. Hierbei geht es um die Gewinnung von Näherungslösungen von Gleichungen. Wir werden in diesem Kapitel exemplarisch auf eine solche Anwendung eingehen.Die Grundlage für einen fehlerfreien Einsatz von Folgen ist eine genaue Begriffsbildung. Die Erfahrung zeigt aber, dass sich viele damit zunächst schwertun. Doch mit ein wenig Routine und vielen Beispielen werden die Sachverhalte schnell überschaubar. Damit wir die späteren Anwendungen verstehen, müssen wir uns auf das abstrakte Konzept von Folgen und Grenzwerten einlassen. Dabei werden die Konvergenz von Zahlenfolgen, also die Existenz eines Grenzwerts, und gegebenenfalls die analytische Berechnung solcher Werte im Vordergrund stehen.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

7. Stetige Funktionen – kleine Ursachen haben kleine Wirkungen

Im Kap. 2 haben wir bereits den Begriff der Abbildung kennengelernt, eines der ganz wesentlichen Konzepte der abstrakten Mathematik. Hier wollen wir uns mit ganz speziellen Abbildungen, den Funktionen, beschäftigen, bei denen Zahlen wieder Zahlen zugeordnet werden. Solche Abbildungen waren schon das Thema des Kap. 4.In den Anwendungen, etwa aus Naturwissenschaft und Technik, erhält man durch den Prozess der Modellbildung eine Beschreibung eines Phänomens, in der Zusammenhänge zwischen den auftretenden Größen durch Funktionen dargestellt werden. In diesem Zusammenhang hat man meist mit einer der folgenden zwei Fragestellungen zu tun:Auf diese beiden Fragen werden wir im Verlauf dieses Kapitels immer wieder eingehen und sie zumindest teilweise beantworten.Der zentrale Begriff hierbei wird die Stetigkeit sein. Anschaulich gesprochen bedeutet dies, dass ein funktionaler Zusammenhang stabil ist: Kleine Änderungen im Argument bewirken auch nur kleine Änderungen im Funktionswert. Für eine wasserdichte mathematische Definition werden wir aber den Begriff des Grenzwerts aus dem vorherigen Kapitel bemühen.Stetige Funktionen haben deswegen eine solch herausragende Bedeutung, weil man für sie unter geeigneten Voraussetzungen die beiden Fragen oben bejahen kann. Sie bilden damit das Fundament für alle weiteren Überlegungen in der Analysis.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

8. Reihen – Summieren bis zum Letzten

In diesem Kapitel kehren wir wieder zu den Folgen zurück. Allerdings werden wir uns nun mit einer sehr speziellen Klasse von Folgen beschäftigen, bei denen die Folgenglieder Summen sind. Solche Objekte nennt man Reihen.Man stößt bei mathematischen Betrachtungen, aber auch in Anwendungen, auf ganz natürliche Art und Weise auf Reihen: Die Dezimaldarstellung der reellen Zahlen kann man als eine Reihe auffassen. Ein Anwendungsbeispiel wird die korrekte Austarierung eines Mobiles betreffen. Und schließlich werden wir es in vielen der folgenden Kapitel zur Analysis mit Reihen zu tun bekommen, sei es bei der Darstellung von Standardfunktionen wie sin, cos und exp, bei der Definition von Integralen oder bei der Lösung von Differenzialgleichungen.Im Gegensatz zu den meisten Beispielen, die wir im Kapitel über Folgen kennengelernt haben, ist es bei Reihen oft sehr schwierig, den Grenzwert tatsächlich zu bestimmen. Aber es gibt ausgefeilte Werkzeuge, sogenannte Konvergenzkriterien, um festzustellen, ob eine Reihe konvergiert oder divergiert.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

9. Potenzreihen – Alleskönner unter den Funktionen

Ein Taschenrechner bietet neben den Grundrechenarten üblicherweise weitere Funktionen an, zum Beispiel die Berechnung des Kosinus oder des Sinus. Anders als die Grundrechenarten wird die Bestimmung solcher Funktionswerte nicht exakt durch elektronische Schaltungen, sondern durch Näherungen auf genügend viele Dezimalstellen durchgeführt. Das funktioniert, wie wir es schon beim Wurzelziehen auf S. 182 gesehen haben, durch eine Formulierung als Grenzwert.Zu diesem Zweck werden Darstellungen von Funktionswerten als Grenzwerte benötigt. Genauer gesagt handelt es sich bei diesen Grenzwerten um Werte von speziellen Reihen, den Potenzreihen. Der Name kommt daher, dass Potenzen des Arguments der Funktion in den Reihengliedern auftauchen.Neben der Definition solcher Reihen und dem Studium ihres Konvergenzverhaltens wird es in diesem Kapitel vor allem darum gehen, wie man Funktionen mit ihrer Hilfe darstellt und welche Funktionen so dargestellt werden können. Dabei stoßen wir wieder auf alte Bekannte, wie die Exponentialfunktion und die trigonometrischen Funktionen.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

10. Differenzialrechnung – Veränderungen kalkulieren

Die Differenzialrechnung ist mit Sicherheit das zentrale Kalkül der Mathematik in den technischen und naturwissenschaftlichen Anwendungen. Den meisten Lesern werden deswegen die Begriffe Ableitung und Differenzial schon in verschiedenen Facetten begegnet sein. Häufig überlagern aber die mathematisch-technischen Aspekte den wesentlichen Charakter des Differenzierens, nämlich Veränderungen berechenbar zu machen. Das Konzept der Linearisierung eines funktionalen Zusammenhangs ist der entscheidende Hintergrund für die herausragende Bedeutung von Ableitungen.Der Weg zur Differenzialrechnung wurde durch Sir Isaac Newton (1643–1727) und Gottfried Wilhelm von Leibniz (1646–1716) geebnet. Beiden stand ein genauer Grenzwertbegriff noch nicht zur Verfügung und die damaligen Argumente von unendlich kleinen Größen wirken heute sehr vage. Mit dem Begriff des Grenzwerts, wie wir ihn in Kap. 6 kennengelernt haben, gibt es diese philosophischen Probleme beim Umgang mit Ableitungen nicht mehr. Somit liegt heute eine mathematisch exakte Definition vor, die wir in diesem Kapitel untersuchen. Die weitreichende Leistungsfähigkeit des Differenzierens lässt sich aber sicherlich erst abschätzen, wenn man etwa mathematische Modelle basierend auf Differenzialgleichungen in verschiedenen Anwendungen gesehen und genutzt hat (siehe u. a. Kap. 13).

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

11. Integrale – vom Sammeln und Bilanzieren

Die Rekonstruktion der Größe einer Population aus der Geburten- und Sterberate, der Flächeninhalt krumm begrenzter Flächen, das Volumen von beliebig geformten Körpern, die Länge von Kurven, die bei Bewegung in einem Kraftfeld geleistete Arbeit, der Fluss einer Strömung durch ein Flächenstück – all diese Dinge lassen sich mit einem Konzept beschreiben und berechnen: dem Integral.Neben der Differenzialrechnung ist die Integralrechnung die zweite tragende Säule der Analysis. Während sich die Differenzialrechnung in erster Linie mit dem lokalen Änderungsverhalten von Funktionen, also dem Verhalten im Kleinen befasst, macht die Integralrechnung globale Aussagen, behandelt also Aspekte im Großen. Es ist das Werkzeug, um zu bilanzieren, also aus Veränderungen, die im Lauf der Zeit passieren, einen Gesamtstand zu ermitteln. Entscheidend ist der enge Zusammenhang zwischen beiden Konzepten. Das Integrieren lässt sich als Umkehrung des Differenzierens auffassen.Der Ansatzpunkt für den Integralbegriff ist das Problem der Fläche unter einem Graphen. Dabei gibt es verschiedene Möglichkeiten, sinnvoll zu einem Integralbegriff zu gelangen, wobei verschiedene Definitionen durchaus subtile Unterschiede aufweisen können. Diese Unterschiede sollen uns aber weniger kümmern. Deshalb wird ein Integralbegriff vorgestellt, der nach dem französischen Mathematiker Henri Leon Lebesgue (1875–1941) benannt ist. Dieser liefert relativ anschaulich die passende theoretische Grundlage für die vielfältigen Anwendungen der Integralrechnung.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

12. Integrationstechniken – Tipps, Tricks und Näherungsverfahren

Wir haben bisher gesehen, was die prinzipiellen Ideen sind, die zum Integralbegriff geführt haben. Auch Anwendungen in den unterschiedlichsten Gebieten wurden schon angerissen. Nun müssen wir uns aber mit einem eher technischen Thema auseinandersetzen, nämlich der Frage, ob und wie man für allgemeine, beliebig zusammengesetzte Funktionen jeweils Stammfunktion angeben, sie also integrieren kann.Die Antwort ist ebenso kurz wie erst einmal enttäuschend: Eine allgemeine Methode, Stammfunktionen zu finden, quasi eine unmittelbare Entsprechung zu den universellen Ableitungsregeln gibt es nicht. Tatsächlich kennt man genug Funktionen, deren Stammfunktionen sich bewiesenermaßen nicht mehr mittels elementarer Funktionen ausdrücken lassen. Nichtsdestotrotz werden wir in diesem Kapitel eine Sammlung von Techniken und Tricks kennenlernen, mit denen sich doch viele Integrale in den Griff bekommen lassen. Dies sind quasi die Haken und Seile unserer Integrations-Klettertouren.So automatisiert wie beim Differenzieren geht es bei der Integration aber trotzdem selten zu – ein Indiz dafür ist, dass Computeralgebrasysteme keine Probleme haben, auch komplizierteste Ausdrücke in Sekundenbruchteilen zu differenzieren, an Integralen hingegen immer noch oft scheitern oder zumindest unnötig komplizierte und unübersichtliche Ausdrücke produzieren. Intuition und Übung spielen bei Integrationsaufgaben eine entscheidende Rolle.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

13. Differenzialgleichungen – Zusammenspiel von Funktionen und ihren Ableitungen

Während wir in der Mathematik eine Ableitung einer Funktion berechnen oder eine Stammfunktion bestimmen, tauchen in den Anwendungen Funktionen und ihre Ableitungen häufig in eigenständigen Rollen auf. So können wir bei einem Fahrzeug von der zum Zeitpunkt t zurückgelegten Strecke $$s(t)$$ sprechen und von der Momentangeschwindigkeit $$v(t)$$ . Erst durch die Naturgesetze oder zu treffende Annahmen entsteht der mathematische Zusammenhang zwischen diesen Größen, nämlich dass die eine die Ableitung der anderen ist.Durch die Kombination der verschiedenen Naturgesetze gelangt man von Anwendungsproblemen zu Gleichungen, die einen Prozess mathematisch beschreiben. Durch die oben beschriebenen Zusammenhänge tauchen dann Funktionen und ihre Ableitungen in derselben Gleichung auf. Die Funktion ist hierbei die Unbekannte, sie ist zu bestimmen. Solche Gleichungen bezeichnet man als Differenzialgleichungen.Zur Lösung solcher Gleichungen werden wir das gesamte Arsenal der Differenzial- und Integralrechnung benötigen. Ähnlich wie schon bei der Integration wird man vielen Gleichungen mit gewissen Tricks oder wenig offensichtlichen Ansätzen zu Leibe rücken. Die Motivation für die einzelnen Lösungstechniken darzulegen, damit es nicht scheint, als würde mit Magie oder zumindest undurchschaubaren Methoden gearbeitet, ist ein besonderes Anliegen dieses Kapitels.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

Lineare Algebra

Frontmatter

14. Lineare Gleichungssysteme – Grundlage der linearen Algebra

In fast allen Bereichen der linearen Algebra stößt man auf Aufgaben, die zu linearen Gleichungssystemen führen. Bereits einfache Fragestellungen nach Schnittpunkten von Geraden im Anschauungsraum liefern solche Systeme. Kompliziertere Aufgabenstellungen, wie etwa bei der Eigenwertproblematik oder der linearen Optimierung, können in zahlreichen riesigen Gleichungssystemen ausufern.Aber solche Systeme spielen auch in vielen anderen Gebieten der Mathematik und auch in anderen Wissenschaften eine Rolle. Wir führen Beispiele aus der numerischen Mathematik, Physik, Statik, Politik und Elektrotechnik vor.Weil es für die meisten Themenkreise der linearen Algebra unumgänglich ist, das Lösen von linearen Gleichungssystemen zu beherrschen, behandeln wir diese im vorliegenden ersten Kapitel zur linearen Algebra ausführlich. Wir entwickeln ein systematisches Verfahren zur Lösung solcher Systeme, das auch den meisten Computeralgebrasystemen zugrunde liegt. Bei diesem Verfahren, das nach Gauß und Jordan benannt ist, wird in einer ersten Phase geklärt, ob ein gegebenes lineares Gleichungssystem überhaupt lösbar ist. Im Fall der Lösbarkeit wird dann in einer weiteren Phase die Lösungsmenge auf eine effiziente Art und Weise bestimmt.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

15. Vektorräume – Schauplätze der linearen Algebra

Die lineare Algebra kann auch als Theorie der Vektorräume bezeichnet werden. Diese Theorie entstand durch Verallgemeinerung der Rechenregeln von klassischen Vektoren im Sinne von Pfeilen in der Anschauungsebene. Der wesentliche Nutzen liegt darin, dass unzählige, in fast allen Gebieten der Mathematik und auch in zahlreichen Naturwissenschaften auftauchenden Mengen eben diese gleichen Rechengesetze erfüllen. So war es naheliegend jede Menge, in der jene Rechengesetze gelten, allgemein als Vektorraum zu bezeichnen. Eine systematische Behandlung eines allgemeinen Vektorraums, d. h. eine Entwicklung einer Theorie der Vektorräume, löst somit zahlreiche Probleme in den verschiedensten Gebieten der Mathematik und den Naturwissenschaften.Wir werden den Begriff eines Vektorraums sehr allgemein definieren, um die verschiedensten Arten von Vektoren beschreiben zu können. Mithilfe von Vektoren lassen sich physikalische und statische Problemstellungen formulieren und lösen. Es lassen sich physikalische Prinzipien und Gesetze ausdrücken. Solche Beispiele werden wir in den Anwendungen demonstrieren.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

16. Matrizen und Determinanten – Zahlen in Reihen und Spalten

Bei linearen Gleichungssystemen dienen Matrizen als Hilfsmittel; durch sie wird das Lösen von großen Gleichungssystemen übersichtlich. Die Entscheidung, ob Spaltenvektoren linear unabhängig sind oder eine Basis bilden, wird oft vorteilhaft mittels einer Matrix gefällt. Und im nächsten Kapitel werden wir sehen, dass man mit Matrizen Abbildungen zwischen Vektorräumen darstellen kann.Die Menge der Matrizen hat, obwohl Matrizen doch scheinbar eher ein Hilfs- oder Darstellungsmittel für abstrakte Sachverhalte in der linearen Algebra sind, eine Struktur. Nicht nur, dass die Menge aller Matrizen als ein Vektorraum aufgefasst werden kann, es lässt sich auch eine Multiplikation von Matrizen erklären, für die vertraute Regeln wie etwa in der Menge $$\mathbb{Z}$$ der ganzen Zahlen gelten. Tatsächlich ist die Multiplikation recht speziell gewählt, den tieferen Hintergrund für diese Wahl erfahren wir in dem Kapitel zu den linearen Abbildungen. In dem vorliegenden Kapitel behandeln wir Matrizen ausführlich als selbstständige Objekte der linearen Algebra und betrachten die wichtigsten Typen von Matrizen.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

17. Lineare Abbildungen und Matrizen – abstrakte Sachverhalte in Zahlen ausgedrückt

Eine Abbildung zwischen Vektorräumen, also zwischen Mengen mit einer Vektoraddition und einer skalaren Multiplikation, werden wir lineare Abbildung oder Homomorphismus nennen, wenn sie die Struktur der Vektorräume berücksichtigt, d. h., wenn sie additiv und multiplikativ ist. Diese Gleichheit der Strukturen besagt der Begriff Homomorphie.In dieser Sichtweise ist eine lineare Abbildung durchaus abstrakt. Um so mehr, wenn man berücksichtigt, dass als Vektoren z. B. auch Polynome infrage kommen. Ein Beispiel einer linearen Abbildung ist hier etwa das aus der Analysis bekannte Differenzieren.Jedoch gelingt es in endlichdimensionalen Vektorräumen, nach Wahl einer Basis jeder linearen Abbildung eine sehr anschauliche und vertraute Gestalt zu geben. Zu jeder linearen Abbildung gehört bezüglich gewählter Basen der Vektorräume eine Matrix. Diese die Abbildung darstellende Matrix charakterisiert die Abbildung eindeutig. Wir können so lineare Abbildungen endlichdimensionaler Vektorräume mit Matrizen identifizieren. Das Abbilden ist letztlich eine einfache Matrizenmultiplikation.Durch diesen Prozess werden lineare Abbildungen auf Matrizen zurückgeführt, für die wir bereits ein Kalkül entwickelt haben.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

18. Eigenwerte und Eigenvektoren – oder wie man Matrizen diagonalisiert

Ein rotierender Körper ohne äußere Kräfte verbleibt in seiner Bewegung, wenn er um seine Symmetrieachse rotiert. Dann liegen nämlich Drehimpuls und Winkelgeschwindigkeit auf einer Achse. Stört man den Körper jedoch, indem man ihn anstößt, bleibt zwar weiterhin der Drehimpuls konstant, da aber die Symmetrieachse und damit die Hauptträgheitsachse durch die Rotation verdreht werden, ändert auch die Winkelgeschwindigkeit permanent ihre Richtung. Der Körper fängt an zu nicken. Diese als Nutation bezeichnete Bewegung lässt sich berechnen. Denn man erhält die Hauptträgheitsachsen eines Körpers als Eigenvektoren des zugehörigen Trägheitstensors. Er ist eine symmetrische Matrix.Der Trägheitstensor kann wie jede quadratische Matrix als eine Darstellungsmatrix einer linearen Abbildung aufgefasst werden. Der Wunsch nach einer besonders einfachen Darstellungsmatrix dieser linearen Abbildung führt auf die Frage, welche Vektoren auf skalare Vielfache von sich selbst abgebildet werden. Man nennt solche Vektoren Eigenvektoren der linearen Abbildung. Wenn eine Basis aus Eigenvektoren existiert, so ist die Darstellungsmatrix bezüglich dieser Basis eine Diagonalmatrix – im Fall des Trägheitstensors sind die Hauptträgheitsachsen dann eine Basis aus Eigenvektoren.Aber nicht zu jeder Matrix existiert eine Basis aus Eigenvektoren. Jedoch lässt sich zeigen, dass eine solche Basis aus Eigenvektoren stets dann existiert, wenn die Matrix symmetrisch ist.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

19. Analytische Geometrie – Rechnen statt Zeichnen

Historisch gesehen hat sich die Geometrie aus einer Idealisierung unserer physikalischen Welt entwickelt. Zunächst war allein die Zeichnung die Grundlage geometrischer Fragestellungen. Es bedeutete zweifellos einen besonderen Durchbruch, als man begann, geometrische Elemente durch Zahlen zu beschreiben und damit die zeichnerische Lösung eines Problems durch eine rechnerische zu ersetzen. Dieser für die moderne Wissenschaft so bedeutende Schritt ist vor allem René Descartes (1596–1650) und Pierre de Fermat (1607/08–1665) zu verdanken und führte zur Entwicklung der Analytischen Geometrie. Ohne diese gäbe es keine Computergrafik, keine Robotik und keine Raumfahrt, um nur einige wenige unserer heute so selbstverständlichen Errungenschaften zu nennen.In diesem Kapitel konzentrieren wir uns auf die analytische Geometrie des dreidimensionalen Raums, genauer, des $$\mathbb{R}^{3}$$ . Dies deshalb, weil der $$\mathbb{R}^{3}$$ unseren physikalischen Raum idealisiert und wir uns die notwendigen Begriffe geometrisch veranschaulichen können. Mit der Kenntnis des Dreidimensionalen fällt es uns auch leichter, so manche n-dimensionale Fragestellung oder allgemeine mathematische Prinzipien zu verstehen und zu analysieren.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

20. Euklidische und unitäre Vektorräume – Geometrie in höheren Dimensionen

Im vorangegangen Kapitel zur analytischen Geometrie haben wir ausführlich das kanonische Skalarprodukt im Anschauungsraum behandelt. Wir haben festgestellt, dass zwei Vektoren genau dann orthogonal zueinander sind, wenn ihr Skalarprodukt den Wert null ergibt.Wir sind auch mit höherdimensionalen Vektorräumen und auch mit Vektorräumen, deren Elemente Funktionen oder Polynome sind, vertraut. Es ist daher eine naheliegende Frage, ob es auch möglich ist, ein Skalarprodukt zwischen Vektoren solcher Vektorräume zu erklären. Dabei sollte aber das vertraute Standardskalarprodukt des Anschauungsraums verallgemeinert werden. Dass dies in vielen Vektorräumen möglich ist, zeigen wir im vorliegenden Kapitel. Dabei können wir aber nicht mehr mit der Anschauung argumentieren. Wir werden vielmehr die algebraischen Eigenschaften des Skalarproduktes im Anschauungsraum nutzen, um ein (allgemeines) Skalarprodukt zu erklären. Damit gelingt es dann auch von einer Orthogonalität von Funktionen zu sprechen – Funktionen sind per Definition dann orthogonal, wenn ihr Skalarprodukt den Wert null hat. Anders als im vorangegangenen Kapitel versagt aber für diesen allgemeineren Begriff der Orthogonalität im Allgemeinen jede Anschauung.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

21. Quadriken – ebenso nützlich wie dekorativ

Unter einer Quadrik in einem affinen Raum verstehen wir die Menge jener Punkte, deren Koordinaten einer quadratischen Gleichung genügen.Die zweidimensionalen Quadriken sind – von Entartungsfällen abgesehen – identisch mit den Kegelschnitten und seit der Antike bekannt. Den Ausgangspunkt für die Untersuchung der Kegelschnitte bildete damals allerdings nicht deren Gleichung, sondern die Kegelschnitte wurden als geometrische Orte eingeführt, etwa die Ellipse als Ort der Punkte, deren Abstände von den beiden Brennpunkten eine konstante Summe ergeben. Aber auch die Tatsache, dass Ellipsen als perspektivische Bilder von Kreisen auftreten, war bereits um etwa 200 v. Chr. bekannt. Anfang des 17. Jahrhunderts konnte Johannes Kepler nachweisen, dass die Planetenbahnen Ellipsen sind. Sir Isaac Newton formulierte die zugrunde liegenden mechanischen Gesetze und erkannte, dass sämtliche Kegelschnitttypen als Bahnen eines Massenpunktes bei dessen Bewegung um eine zentrale Masse auftreten.Dies war nur der Anfang jener herausragenden Bedeutung der Kegelschnitte und ihrer höherdimensionalen Gegenstücke für Naturwissenschaften und Technik. Hier treten Quadriken oft als lokale oder globale Approximationen für Kurven und Flächen auf wie etwa bei der harmonischen Näherung beim Vielkörperproblem. Doch soll die ästhetische Seite nicht unerwähnt bleiben, das Auftreten der Ellipsoide als Kuppeln oder der hyperbolischen Paraboloide als attraktive Dachflächen.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

22. Tensoren – geschicktes Hantieren mit Indizes

Für die lineare Algebra bedeutete es einen gewaltigen Fortschritt, Vektoren und Matrizen durch jeweils ein einziges Symbol zu bezeichnen, also nicht stets die einzelnen Koordinaten oder Einträge aufschreiben zu müssen. Damit lassen sich nämlich Strukturen viel einfacher erkennen. So wird heute in fast allen Lehrbüchern zur linearen Algebra der koordinatenfreie Zugang bevorzugt.Andererseits sind bei konkreten Anwendungsproblemen gerade die einzelnen Koordinaten oder Matrizenelemente wesentlich, denn diese vermitteln dem Praktiker oft die wesentlichen Informationen. Die Formeln der Tensorrechnung mit ihrer geschickten Notation erleichtern das Hantieren mit einzelnen Koordinaten sowie deren Transformation bei Änderungen des Koordinatensystems.Wir werden erkennen, dass Vektoren und Matrizen, sofern sie geometrische oder physikalische Größen repräsentieren, unter dem Begriff eines Tensors zu subsumieren sind. Lineare Abbildungen und Bilinearformen ordnen sich gleichfalls diesem Begriff unter. Aber Tensoren bleiben nicht auf einfach oder zweifach indizierte Größen beschränkt, wir können mit drei und mehr Indizes arbeiten. Nur müssen wir lernen, aus dem Gewirr von Indizes das Wesentliche herauszulesen, und genau das ist ein Ziel dieses Kapitels zur Tensorrechnung. Das Wort Tensor leitet sich übrigens vom lateinischen tendere (spannen) ab und deutet auf eine wichtige Anwendung hin, den Spannungstensor.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

23. Lineare Optimierung – ideale Ausnutzung von Kapazitäten

In der Analysis behandelte Optimierungsaufgaben, also die Suche nach Maxima oder Minima einer Funktion unter Nebenbedingungen, fordern die Einhaltung von Gleichheiten in Nebenbedingungen, wie etwa bei der Lagrange-Multiplikatorregel. Es ist im Allgemeinen aber deutlich praxisnäher, anstelle von Gleichungen Ungleichungen zuzulassen – dadurch werden Nebenbedingungen durch Ober- bzw. Untergrenzen vorgegeben. Die Nebenbedingungen müssen letztlich nicht notwendig ausgeschöpft werden, sie stellen bei den praktischen Aufgabenstellungen oft bestehende Kapazitäten dar.Die Optimierungstheorie, also die Suche nach Extrema von Funktionen in mehreren Variablen unter Nebenbedingungen, die durch Gleichheits- oder Ungleichheitsrelationen gegeben sind, ist keineswegs abgeschlossen. Jedoch gibt es für die sogenannten linearen Optimierungsprobleme eine algorithmische Lösungsmethode. Dieses Simplexverfahren zur Lösung solcher Optimierungsprobleme ist der Kern dieses Kapitels.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

Analysis mehrerer reeller Variablen

Frontmatter

24. Funktionen mehrerer Variablen – Differenzieren im Raum

Zusammenhänge sind nur in seltenen Fällen eindimensionaler Natur. Fast alle Größen, mit denen man es in der Praxis zu tun hat, hängen in Wirklichkeit von verschiedenen Einflüssen ab – also von mehreren Variablen.Einen Vorgeschmack darauf, was es bedeutet, mit vielen Variablen umzugehen, haben wir bereits in Teil III, der linearen Algebra erhalten. Doch die Probleme, die sich im Kontext linear-algebraischer Abbildungen behandeln lassen, sind zwar vielfältig, aber doch begrenzt. Viele praktische Probleme sind komplizierterer Natur und erfordern es, nichtlineare Funktionen mehrerer Variablen zu behandeln, sie zu differenzieren, entlang von Kurven oder über gekrümmte Flächen zu integrieren oder Differenzialgleichungen aufzustellen und zu lösen, die Ableitungen nach mehreren Variablen enthalten.Das ist ein sehr umfangreiches Programm und wird uns auch den gesamten Teil IV beschäftigen. In diesem Kapitel werden wir beginnen, die Thematik aufzurollen. Die Grundfragen dabei sind, wie man Funktionen von mehreren Variablen überhaupt handhabt, wie in diesem Fall Stetigkeit und Differenzierbarkeit aussehen und welche Anwendungen sie haben. Dabei wird sich zeigen, dass wir zwar im Prinzip auf alle Techniken und Konzepte zurückgreifen können, die wir in Teil II kennengelernt haben, dass sich dabei aber gelegentlich gewisse Komplikationen ergeben.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

25. Gebietsintegrale – das Ausmessen von Körpern

Nachdem wir im vorangegangenen Kapitel die Differenzialrechnung in das Mehrdimensionale übertragen haben, wollen wir nun den ersten Schritt unternehmen, auch die Integralrechnung auf höhere Dimensionen zu übertragen. Es gibt dabei viele verschiedene Integralbegriffe im Mehrdimensionalen, zum Beispiel Kurvenintegrale oder Oberflächenintegrale, mit denen wir uns erst im Kap. 27 beschäftigen werden. In diesem Kapitel wird es dagegen ausschließlich um sogenannte Gebietsintegrale gehen.Kennzeichnend für Gebietsintegrale ist, dass die Dimension des Integrationsgebiets mit der Dimension des betrachteten Raums übereinstimmt. Im Zweidimensionalen integrieren wir über einen ebenen Bereich, im Dreidimensionalen über ein Volumen. Typische Anwendungen dieser Integrale sind die Berechnung von Volumen, Massen oder Schwerpunkten von Körpern.Aus mathematischer Sicht sind die Gebietsintegrale, wenn man das schon bekannte Lebesgue-Integral aus dem Eindimensionalen als Spezialfall hinzuzählt, die Basis für die Definition der oben schon erwähnten komplizierteren Integraltypen. Es ist dieses Fundament, auf dem die Sätze der Vektoranalysis in Integralform und dadurch die mathematischen Modelle für die unterschiedlichsten naturwissenschaftlichen Theorien aufbauen, zum Beispiel die Maxwell’schen Gleichungen in der Elektrodynamik oder die Navier-Stokes’schen Gleichungen der Strömungsmechanik. Für die Physik und die Ingenieurwissenschaften spielt das Gebietsintegral also eine entscheidende Rolle.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

26. Kurven und Flächen – von Krümmung, Torsion und Längenmessung

Unsere Bemühungen, Analysis im Raum zu betreiben, sind inzwischen weit vorangekommen. Wir haben einen Funktionsbegriff zur Verfügung, können Aussagen über Stetigkeit machen, differenzieren und integrieren. Als wesentlich haben sich dabei die Werkzeuge der linearen Algebra erwiesen, lineare Abbildungen ebenso wie die Methoden der analytischen Geometrie.Gerade bei letzteren liegt momentan aber noch unsere größte Schwäche. Die Geometrie, die wir bisher zur Verfügung haben, kennt Geraden, Ebenen, vielleicht noch Flächen zweiter Ordnung wie Ellipsoide oder Hyperboloide, aber nichts, was darüber hinausgeht.Auf der anderen Seite können wir mittels Funktionen $$\mathbb{R}\to\mathbb{R}$$ zwar durchaus kompliziertere Kurven und Flächen beschreiben. Die Forderung der Eindeutigkeit jedes Funktionswerts verbietet es uns aber bereits, auch nur einen kompletten Kreis oder eine ganze Kugel durch eine einzelne Funktion darzustellen.Alle diese Einschränkungen wollen wir nun überwinden und eine völlig allgemeine Art suchen, Kurven in Ebene und Raum, Flächen und Hyperflächen zu behandeln.Die dazu notwendige Synthese aus Geometrie und Differenzialrechnung wurde früher oft als Differenzialgeometrie bezeichnet. Inzwischen verwendet man diesen Begriff allerdings eher für die abstrakte Verallgemeinerung dessen, was wir hier und auch im folgenden Kapitel studieren wollen.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

27. Vektoranalysis – von Quellen und Wirbeln

Die Vektoranalysis ist ein Gebiet, das für naturwissenschaftliche und technische Anwendungen von immenser Bedeutung ist. Erfreulicherweise sind die zentralen Begriffe, mit denen wir es in diesem Kapitel zu tun haben werden, Skalar- und Vektorfelder, keineswegs neu. Im Prinzip haben wir sie, noch dazu in größerer Allgemeinheit, bereits mit den Abbildungen $$\mathbb{R}^{n}\to\mathbb{R}^{m}$$ vollständig abgehandelt.Dennoch lohnt es sich, hier noch einmal genauer hinzusehen und die Folgerungen zu untersuchen, die sich ergeben, wenn man die Vektorrechnung mit der Analysis, vor allem Differenzial- und Integralrechnung verknüpft.Einerseits werden wir verschiedene Differenzialoperatoren definieren, die speziell auf Skalar- und Vektorfelder zugeschnitten sind. Andererseits können wir solche Felder auch integrieren. Die Integrationsbereiche sind hier zumeist Kurven und Flächen – und wir werden unsere Kenntnisse aus Kap. 26 gut gebrauchen können.Die Anwendungen sind insbesondere in Strömungsmechanik und Elektrodynamik offensichtlich, und wir werden auch immer wieder Beispiele und Veranschaulichungen aus diesen Bereichen benutzen. Doch generell taucht die Vektoranalysis in verschiedensten Bereichen naturwissenschaftlich-technischer Anwendungen auf.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

28. Differenzialgleichungssysteme – ein allgemeiner Zugang zu Differenzialgleichungen

Im Kap. 13 haben wir uns ausführlich mit rechnerischen Verfahren beschäftigt, um Lösungen von Differenzialgleichungen zu bestimmen. Dabei haben wir jedoch nur angenommen, dass solche Lösungen tatsächlich existieren, dies jedoch niemals bewiesen. Auch die Frage, ob wir wirklich alle Lösungen einer Differenzialgleichung gefunden haben, musste unbeantwortet bleiben.Mit dem Satz von Picard-Lindelöf können wir nun die Begründung nachreichen, und wir werden das gleich für Systeme von Differenzialgleichungen tun können. Um diesen Satz und zahlreiche andere Aspekte aus der Theorie der Differenzialgleichungen angehen zu können, werden wir starken Gebrauch von Ergebnissen aus der mehrdimensionalen Analysis, aber auch aus der linearen Algebra machen. In diesem Kapitel kommen diese beiden unterschiedlichen Bereiche der Mathematik erstmals gemeinsam zum Zuge.Ein wichtiges Phänomen, das im Zusammenhang mit Differenzialgleichungen eine Rolle spielt, ist die Stabilität: Wie wirken sich kleine Veränderungen in den Anfangsbedingungen auf die Lösung aus? Dies ist zum einen von Interesse, um das Verhalten komplizierter nicht-linearer Systeme qualitativ zu verstehen, zum anderen ist es bei numerischen Verfahren essenziell. Bei einem instabilen Verfahren hat die berechnete Näherung nichts mit der tatsächlichen Lösung zu tun.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

29. Partielle Differenzialgleichungen – Modelle von Feldern und Wellen

Die Bedeutung von Differenzialgleichungen in Naturwissenschaft und Technik ist schon in den Kap. 13 und 28 angeklungen. Selbstverständlich sind in vielen Modellen aber nicht nur Funktionen einer unabhängigen Variablen zu betrachten. Entsprechend müssen im Allgemeinen partielle Ableitungen berücksichtigt werden. Differenzialgleichungen, bei denen partielle Ableitungen in Relation zueinander gestellt werden, nennt man partielle Differenzialgleichungen.Es stellt sich heraus, dass viele grundlegende Theorien wie etwa die Elektrodynamik oder die Elastizitätstheorie durch partielle Differenzialgleichungen formuliert werden. Wir sind somit an einer entscheidenden Nahtstelle zwischen Mathematik und ihren Anwendungen angekommen. Leicht stößt man auf noch offene Fragen bei diesen Modellen. So bilden die partiellen Differenzialgleichungen ein aktuelles Forschungsfeld, in dem sich stärker als in anderen Bereichen Mathematik und Anwendungen verzahnen. Auch wenn wir hier die Vielschichtigkeit der mathematischen Aspekte nicht darstellen können, versuchen wir in die Welt der partiellen Differenzialgleichungen einzutauchen und eine Orientierung zu geben.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

Höhere Analysis

Frontmatter

30. Fouriertheorie – von schwingenden Saiten

Die Fouriertheorie ist eines der Gebiete der modernen Mathematik mit der breitesten Anwendung. In den meisten Wohnungen stehen heute Fernseher, CD- und DVD-Spieler und Verstärker, alles Geräte, die es ohne die moderne Signalverarbeitung nicht geben würde. Die mathematische Grundlage dafür ist die Fouriertheorie.In diesem Kapitel wollen wir uns zum einen mit Fourierreihen, zum anderen mit der diskreten Fouriertheorie beschäftigen. Die kontinuierliche Fouriertransformation bleibt zunächst außen vor und wird im Kap. 33 zu Integraltransformationen behandelt. Während wir die Fourierreihen noch im Wesentlichen mit der uns bekannten Mathematik behandeln können, benötigt die Fouriertransformation für eine mathematisch korrekte Darstellung weitaus mehr Mittel.Die Idee der Fouriertheorie ist es, beliebige Funktionen als Überlagerung von Schwingungen mit festen Frequenzen darzustellen. Es war schon der Grundgedanke von Fourier im 18. Jahrhundert, dass dies für beliebige periodische Funktionen möglich sei. Auch wenn sich diese ganz generelle Idee als falsch herausstellte, hat sich das Prinzip als sehr fruchtbar erwiesen.Ist die Aufteilung einer Funktion (oder eines Signals) in seine Frequenzkomponenten erreicht, so ist Filterung oder Verstärkung einzelner Frequenzen beliebig möglich. Dass die Ermittlung dieser Komponenten in der Praxis effizient zu bewerkstelligen ist, ist der Verdienst der sogenannten schnellen Fouriertransformation.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

31. Funktionalanalysis – Operatoren wirken auf Funktionen

In den Kapiteln des vierten Teils des Buches sind wir immer wieder auf das Phänomen gestoßen, dass Begriffe und Konzepte aus der linearen Algebra in die Analysis übertragen werden und so zu neuen Ergebnissen führen. Beispiele sind Fundamentalsysteme bei Differenzialgleichungen, die nichts anderes sind als Basen der Lösungsräume, oder die Verbindung zwischen den Lösungsmengen von linearen Differenzialgleichungen mit konstanten Koeffizienten und den Eigenwertproblemen.Die Funktionalanalysis schafft für beide Gebiete, Analysis und lineare Algebra, ein gemeinsames Dach, indem sie die Begriffe der Vektorräume und der linearen Abbildungen verwendet, um Operationen wie das Differenzieren und das Bilden von Integralen zu beschreiben. Die Methoden der linearen Algebra führen allerdings allein nicht zum Ziel, da die für die Analysis interessanten Räume von unendlicher Dimension sind. Als zusätzliches Mittel aus der Analysis stehen aber die Begriffe des Grenzwerts und der Vollständigkeit zur Verfügung.Betrachten wir nun beispielsweise Randwertprobleme in dieser Art und Weise, so erhalten wir allgemeinere Formulierungen der Problemstellungen, die auch neue Typen von Lösungen zulassen. Diese Lösungen haben merkwürdige Eigenschaften, sie sind zum Beispiel nicht überall differenzierbar.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

32. Funktionentheorie – von komplexen Zusammenhängen

Bisher haben wir komplexwertige Funktionen nur sehr oberflächlich studiert. Insbesondere haben wir uns nicht weiter mit der Frage beschäftigt, ob man solche Funktionen $$\mathbb{C}\to\mathbb{C}$$ auch auf sinnvolle Weise differenzieren kann. Und auch wenn wir schon gelegentlich komplexwertige Funktionen integriert haben, so ist das doch nur entlang der reellen Achse passiert, Integrationen auf anderen Kurven der komplexen Ebene sind bisher unterblieben. All das wollen wir nun nachholen.Dabei zeigt sich, dass komplexe Differenzierbarkeit eine sehr starke Eigenschaft ist, die nur wenige Funktionen besitzen. Glücklicherweise sind darunter jene, die für uns besondere Bedeutung haben, nämlich die uns bekannten elementaren Funktionen.Der starke Zusammenhang und die besonderen Eigenschaften, die komplex differenzierbare Funktionen haben, eröffnen Zusammenhänge, die allein im Reellen keineswegs offensichtlich sind. Folgerichtig ist die Stärke der komplexen Differenzierbarkeit ein zentrales Thema dieses Kapitels und Fundament der Funktionentheorie.Zudem hängt komplexes Differenzieren eng mit komplexem Integrieren zusammen. So lässt sich die Integration komplex differenzierbarer Funktionen oft auf sehr einfache Weise ausführen. Die entsprechenden Techniken können zudem noch benutzt werden, um auch bestimmte reelle Integrale zu berechnen.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

33. Integraltransformationen – Multiplizieren statt Differenzieren

Durch die Arbeiten von Laplace und Fourier sind Integraltransformationen als mathematische Methode aus kaum einem Anwendungsfeld wegzudenken. Die Laplace- und die Fouriertransformation bieten häufig elegante Wege zur Lösung komplizierter Differenzial- oder Integralgleichungen. Dabei wurde historisch die Laplacetransformation von Pierre-Simon Laplace (1749–1827) zunächst im Zusammenhang mit der Wahrscheinlichkeitstheorie betrachtet. Die Interpretation der von Jean Baptiste Fourier (1768–1830) entwickelten Fouriertransformation im Sinne der Spektralanalyse von Signalen ist hingegen physikalischer Natur.Neben diesen beiden zentralen Integraltransformationen sind andere Transformationen durch spezielle Anwendungen motiviert. So liefert die Radon-Transformation die Grundlage der heutigen Computertomografie. Weitere Transformationen wie die Mellin-, die Hankel- oder die Hilbert-Transformation begegnen uns bei der Behandlung bestimmter Differenzialgleichungen.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

34. Spezielle Funktionen – nützliche Helfer

Wir haben inzwischen viele Funktionen kennengelernt, die sich in den verschiedensten Situationen als nützlich oder gar unentbehrlich erwiesen haben. Zu diesen elementaren Funktionen zählen Polynome, Winkelfunktionen, die Exponentialfunktion, Hyperbelfunktionen, Logarithmen, Arkus- und Areafunktionen.Einige Male sind wir aber auch an die Grenzen dessen gestoßen, was sich mit diesen Funktionen darstellen lässt. Insbesondere bei Integralen und bei Differenzialgleichungen gab es immer wieder Lösungen, die aus dem Bereich der elementaren Funktionen herausführten.Nun ist unsere Vorstellung von dem, was elementare Funktionen sind, letztlich willkürlich. Man kann das Arsenal der verfügbaren Funktionen ohne Probleme vergrößern, indem man weitere „spezielle Funktionen“ hinzunimmt, die sich nicht mit den bisher verfügbaren elementaren Funktionen darstellen lassen.Einen solchen Fall, die Gammafunktion, haben wir bereits kennengelernt, ein weiteres wichtiges Beispiel sind etwa die Zylinderfunktionen. Derartige spezielle Funktionen sind in keiner Weise fundamental anders. Wie schon gewohnt werden sie durch Potenzreihen, als Lösungen von Differenzialgleichungen oder als Parameterintegrale gegeben.Speziell an ihnen ist lediglich, dass ihre Anwendbarkeit auf einen schmaleren Bereich beschränkt ist und sie deswegen auch nicht so bekannt sind. Viele Probleme der angewandten Mathematik führen jedoch auf solche Funktionen – die Schwingung einer kreisförmigen Membran ebenso wie die quantenmechanische Behandlung des Wasserstoffatoms.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

35. Optimierung und Variationsrechnung – Suche nach dem Besten

Oft sind wir an optimalen Lösungen interessiert. Bei den Segelyachten des Titelbilds wird nicht nur der optimale Kurs am Wind gesucht. Schon bei der Konstruktion ist die beste Form des Rumpfes und sind die besten Materialien gefragt, um Höchstleistungen möglich zu machen. Bei allen Produktionsprozessen wird versucht, den Materialverbrauch so gering wie möglich zu halten, um Kosten und Ressourcen zu sparen. Aber auch natürliche Phänomene sind durch minimalen Energiebedarf gekennzeichnet.Der Bestimmung von Extrema sind wir schon an verschiedenen Stellen begegnet. Bei differenzierbaren Funktionen, beim Simplexverfahren, in der Fouriertheorie, und bei vielen weiteren Themen spielen Extrema wichtige Rollen. Durch die Entwicklung der Computer können heute auch bei aufwendigen Modellen unter entsprechenden Voraussetzungen beste Lösungen approximiert werden. Wobei die Suche nach dem globalen Minimum wegen vieler lokaler Minima schwierig bis unmöglich sein kann.Zu berücksichtigen sind häufig auch Einschränkungen an die zur Optimierung zulässigen Größen. Solche Restriktionen sowie die Bewertungskriterien, was eigentlich eine optimale Lösung sein soll, sind je nach Problem sehr unterschiedlicher Natur. Die Optimierungstheorie zeigt, dass es sinnvoll ist, systematisch an solche Fragen heranzugehen und mithilfe ihrer mathematischen Formulierung die Probleme zu analysieren und gegebenenfalls numerisch Lösungen zu bestimmen.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

Wahrscheinlichkeitstheorie und Statistik

Frontmatter

36. Deskriptive Statistik – wie man Daten beschreibt

Deskriptive Statistik ordnet Daten und beschreibt sie in konzentrierter Form. Dagegen schließen wir in der induktiven Statistik aus beobachteten Daten auf latente Strukturen und bewerten unsere Schlüsse innerhalb vorgegebener Modelle der Wahrscheinlichkeitstheorie. In der deskriptiven Statistik lässt man nur die Daten selbst reden und kommt zumindest bei den ersten Schritten ohne wahrscheinlichkeitstheoretischen Überbau aus. Gegenstand der deskriptiven Statistik sind die Elemente einer Grundgesamtheit, die Eigenschaften der Elemente, die Arten der Merkmale, die Häufigkeiten der einzelnen Ausprägungen und die Abhängigkeiten zwischen den Merkmalen. All dieses soll durch geeignete Parameter charakterisiert und durch geeignete Grafiken anschaulich gemacht werden. Die dann vertraut gewordenen Begriffe werden wir später im Rahmen der schließenden Statistik übernehmen und vertiefen.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

37. Wahrscheinlichkeit – die Gesetze des Zufalls

Der Begriff Wahrscheinlichkeit steht für ein Denkmodell, mit dem sich zufällige Ereignisse erfolgreich beschreiben lassen. Das Faszinierende an diesem Modell ist die offensichtliche Paradoxie, dass mathematische Gesetze für regellose Erscheinungen aufgestellt werden. Über die Frage, was Wahrscheinlichkeit eigentlich inhaltlich ist und ob Wahrscheinlichkeit an sich überhaupt existiert, sind die Meinungen gespalten.Die objektivistische Schule betrachtet Wahrscheinlichkeit als eine quasi-physikalische Größe, die unabhängig vom Betrachter existiert, und die sich bei wiederholbaren Experimenten durch die relative Häufigkeit beliebig genau approximieren lässt.Der subjektivistischen Schule erscheint diese Betrachtung suspekt, wenn sie nicht gar als Aberglaube verurteilt wird. Für die Subjektivisten oder Bayesianer, wie sie aus historischen Gründen auch heißen, ist Wahrscheinlichkeit nichts anderes als eine Gradzahl, die angibt, wie stark das jeweilige Individuum an das Eintreten eines bestimmten Ereignisses glaubt.Fassen wir einmal die uns umgebenden mehr oder weniger zufälligen Phänomene der Realität mit dem Begriff „die Welt“ zusammen, so können wir überspitzt sagen: Der Objektivist modelliert die Welt, der Subjektivist modelliert sein Wissen über die Welt.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

38. Zufällige Variable – der Zufall betritt den ℝ1

In den kombinatorischen Beispielen konnten wir Wahrscheinlichkeit explizit ausrechnen. Aber das Modell des Wahrscheinlichkeitsraums $$(\Omega;\mathcal{S};P)$$ ist noch sehr abstrakt geblieben. Wie können wir von hier aus die Brücke zu praktischen Problemen schlagen und vor allem, wie können wir Wahrscheinlichkeiten für ganz reale, nicht triviale Probleme berechnen?Dazu werden wir den abstrakten Raum Ω in den uns vertrauten $$\mathbb{R}^{1}$$ abbilden, und zwar so, dass wir auch dort Ereignisse und Wahrscheinlichkeiten definieren können, die aber die Struktur aus $$(\Omega;\mathcal{S};P)$$ im Wesentlichen bewahren. Wir hatten in Kap. 36 Merkmale definiert als Abbildung der Objekte in einen Merkmalsraum, nun definieren wir Zufallsvariable als Abbildung der Ereignisse in die reellen Zahlen. Einfachstes Beispiel für Zufallsvariable sind absolute und relative Häufigkeiten, Längen, Gewichte und ähnliches. Mithilfe von Zufallsvariablen können wir Wahrscheinlichkeiten für alle Borel-Mengen definieren und so den $$\mathbb{R}^{1}$$ zu einem Wahrscheinlichkeitsraum erweitern. Durch diesen Kunstgriff steht uns das ganze Werkzeug der reellen Analysis zur Verfügung. Damit gelingt es, den wichtigsten Satz der Wahrscheinlichkeitstheorie zu beweisen, das Gesetz der großen Zahlen. Mit diesem Gesetz können wir endlich anschaulich erklären, was Wahrscheinlichkeit inhaltlich bedeutet. Nun fängt die Wahrscheinlichkeitstheorie erst richtig an.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

39. Spezielle Verteilungen – Modelle des Zufalls

Im vorigen Kapitel haben wir den Begriff der Zufallsvariablen als globales Modell kennengelernt. Nun sollen die Modelle spezialisiert werden. Vor allem werden wir nun auch stetige Zufallsvariable vorstellen und uns den zentralen Begriff einer Wahrscheinlichkeitsdichte erarbeiten. Wir werden für die wichtigsten, in der Praxis häufig auftretenden Fragestellungen Standardmodelle entwickeln und deren Eigenschaften studieren. Zum Beispiel: Gut-Schlechtprüfung einer laufenden Produktion oder einer bestimmten Warenlieferung, Kapazitätsplanung einer Telefonzentrale, Wartezeit bis zu einem Systemausfall, approximative Verteilung eines Mittelwertes, Lebensdauer einer Maschine, Tragfähigkeit einer Kette.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

40. Schätz- und Testtheorie – Bewerten und Entscheiden

In der Wahrscheinlichkeitstheorie bewegen wir uns im gesicherten Rahmen eines mathematischen Modells. Nun treten wir hinaus in die nichtmathematische Realität. Hier stürmen unzählige Fragen und Probleme auf uns ein.Angenommen, Sie gehen auf einen Trödelmarkt und sehen einen alten Stuhl aus einem glatten roten Holz. Sie fragen sich: Wie alt wird der Stuhl wohl sein? Ist das Holz Mahagoni? Handelt es sich um einen Nachbau oder ist er ein Original? Wird er meinem Freund gefallen, mit dem ich die Wohnung teile?Angenommen, Sie fahren Ihren Wagen zum TÜV, dort wird unter anderem geprüft: Wie groß ist der Abgaswert? Werden die Grenzwerte eingehalten? Wird das Auto bis zur nächsten Untersuchung noch fahrtüchtig bleiben?Diese Fragen sind einerseits Schätzungen. Hier wird die Größe eines unbekannten Parameters erfragt: Alter eines Möbels, Bremskraft und Abgaswerte eines PKW. Bei einem Test andererseits muss eine Entscheidung getroffen werden, ob ein Annahme akzeptiert werden kann oder nicht: Fahrtüchtig oder nicht? Mahagoni oder nicht? Nachbau oder Original?Bei einer Prognose machen wir eine Aussage über ein zukünftiges Ereignis: Morgen wird es wahrscheinlich regnen! Dem Freund wird der Stuhl gefallen! Die Brücke wird der Belastung standhalten!In diesem Kapitel legen wir die Grundlagen für Schätzungen, Prognosen und Tests. Dabei werden wir reale Beobachtungen in ein mathematisches Modell einbetten und dort mithilfe der axiomatischen Wahrscheinlichkeitstheorie Schlüsse ziehen und diese wieder in die Realität rückübertragen.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

41. Lineare Regression – die Suche nach Abhängigkeiten

Fausts Wunsch „… dass ich erkenne, was die Welt im Innersten zusammenhält …“ ist auch heute noch Inbegriff menschlichen Forschens; nämlich erstens die Beziehung zwischen Variablen zu entdecken und zu beschreiben und zweitens sie nach Ursache und Wirkung, Input und Output zu trennen. Im weitesten Sinne ist die Beschäftigung mit dieser Aufgabe das Thema dieses letzten Kapitels. Dabei werden wir ganz bescheiden uns allein mit linearen Zusammenhängen beschäftigen. Während Korrelationen lineare Zusammenhänge zwischen gleichartigen Variablen beschreiben, haben wir es in der Regressionsrechnung mit der Wirkung $$\mu\left(\boldsymbol{x}\right)$$ einer determinierten Größe x auf eine davon abhängige Variable y zu tun. Unser Grundmodell ist $$\begin{aligned}\displaystyle\text{Beobachtung}&\displaystyle=\text{Systematische }\mu(\boldsymbol{x})\text{-Komponente plus St{\"o}rung}\\ \displaystyle y&\displaystyle=\mu\left(\boldsymbol{x}\right)+\varepsilon.\end{aligned}$$ Dabei steht x für eine noch näher zu definierende ein- oder mehrdimensionale Variable.Die geschätzte $$\mu(\boldsymbol{x})$$ -Komponente soll „möglichst nah“ bei y liegen und der nicht erfasste Rest möglichst wenig mit der x-Komponente zu tun haben.

Tilo Arens, Frank Hettlich, Christian Karpfinger, Ulrich Kockelkorn, Klaus Lichtenegger, Hellmuth Stachel

Backmatter

Weitere Informationen

Premium Partner

Neuer Inhalt

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Best Practices für die Mitarbeiter-Partizipation in der Produktentwicklung

Unternehmen haben das Innovationspotenzial der eigenen Mitarbeiter auch außerhalb der F&E-Abteilung erkannt. Viele Initiativen zur Partizipation scheitern in der Praxis jedoch häufig. Lesen Sie hier  - basierend auf einer qualitativ-explorativen Expertenstudie - mehr über die wesentlichen Problemfelder der mitarbeiterzentrierten Produktentwicklung und profitieren Sie von konkreten Handlungsempfehlungen aus der Praxis.
Jetzt gratis downloaden!

Bildnachweise