Skip to main content
main-content

2022 | Buch

Höhere Mathematik in Rezepten

Begriffe, Sätze und zahlreiche Beispiele in kurzen Lerneinheiten

verfasst von: Prof. Dr. Christian Karpfinger

Verlag: Springer Berlin Heidelberg

share
TEILEN
insite
SUCHEN

Über dieses Buch

Dieses Buch bietet eine übersichtliche und gut verständliche Einführung in die Höhere Mathematik mit zahlreichen Beispielen. Der Autor zeigt, wie man typische Aufgaben rezeptartig lösen kann, und teilt den Stoff in kurze, gut verdauliche Lerneinheiten ein.

Haben Sie schon einmal ein 3-Gänge-Menü anhnd eines Rezepts gekocht? Das klappt im Allgemeinen ganz gut, auch wenn man kein großer Koch ist. Was das mit Mathematik zu tun hat? Na ja, man kann auch viele mathematische Probleme rezeptartig lösen: Brauchen Sie die Lösung einer Riccati'schen Differenzialgleichung oder die Singulärwertzerlegung einer Matrix? Schlagen Sie in diesem Buch nach, hier finden Sie ein Rezept dazu. Rezepte gibt es zu Problemen aus der

Analysis in einer und mehreren Variablen,linearen Algebra,Vektoranalysis,Theorie zu Differenzialgleichungen, gewöhnlich und partiell,Theorie der Integraltransformationen,Funktionentheorie.

Weitere Besonderheiten dieses Buches sind:

Die Einteilung der Höheren Mathematik in ca. 100 etwa gleich lange Kapitel. Jedes Kapitel behandelt etwa den Stoff einer 90-minütigen Vorlesung.Viele Aufgaben, die Lösungen dazu findet man in dem dazu gehörigen Arbeitsbuch.

Viele Probleme der Höheren Mathematik lassen sich mit dem Computer lösen. Wir geben stets an, wie es mit MATLAB® funktioniert.

Die vorliegende 4. Auflage wird begleitet von mehr als 300 Flashcards (Springer-Nature-Flashcards-App), die auf ehemaligen Prüfungsaufgaben basieren. Sie bieten eine ideale Prüfungsvorbereitung, da sie sowohl das Verständnis der Theorie als auch die Rechenfertigkeiten fördern. Außerdem wurde das Buch vollständig durchgesehen und an zahlreichen Stellen um Beispiele, Bilder, Erklärungen und weitere Aufgaben ergänzt.

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Sprechweisen, Symbole und Mengen

In diesem ersten Kapitel verschaffen wir uns einen Überblick über die Sprechweisen und Symbole der Mathematik und betrachten Mengen im naiven und für unsere Zwecke völlig ausreichenden Sinne als Zusammenfassungen wohlunterschiedener Elemente mitsamt den zumeist aus der Schulzeit vertrauten Mengenoperationen. Die Auflistung von Begriffen, mit der wir in diesem ersten Kapitel konfrontiert sein werden, ist für uns (also Leser und Schreiber) eine Vereinbarung: Wir halten uns bis zur letzten Seite dieses Buches und noch weiter bis in alle Ewigkeit an diese Notationen und benutzen diese Sprechweisen und Symbole, um uns stets gewiss zu sein, dass wir über ein und dasselbe sprechen: über Mathematik, ihre Regeln, ihre Anwendungen, ...

Christian Karpfinger
Kapitel 2. Die natürlichen, ganzen und rationalen Zahlen

Die Zahlenmengen $$\mathbb {N}$$ N , $$\mathbb {Z}$$ Z , $$\mathbb {Q}$$ Q und $$\mathbb {R}$$ R der natürlichen, ganzen, rationalen und reellen Zahlen sind aus der Schulzeit bekannt. Wir betrachten in diesem Kapitel kurz einige wenige Aspekte, die die natürlichen, ganzen und rationalen Zahlen betreffen, soweit wir diese in der Ingenieurmathematik benötigen. Den größten Raum nimmt hierbei die vollständige Induktion ein, die Anfängern üblicherweise Probleme bereitet. Oftmals hilft es, einfach nur stur das Rezept durchzuführen, das Verständnis kommt im Laufe der Zeit. Die reellen Zahlen nehmen mehr Raum ein, wir kümmern uns um diese im nächsten Kapitel.

Christian Karpfinger
Kapitel 3. Die reellen Zahlen

Die Menge der rationalen Zahlen ist in einer näher beschreibbaren, aber uns nicht näher interessierenden Art und Weise löchrig. Diese Löcher werden durch die irrationalen Zahlen gestopft. Die Gesamtheit der rationalen und irrationalen Zahlen bildet die Menge der reellen Zahlen und damit den bekannten Zahlenstrahl. Die reellen Zahlen bilden das Fundament der (reellen) Analysis und damit auch der Ingenieurmathematik. Der Umgang mit den reellen Zahlen muss geübt sein und darf keine Schwierigkeiten bereiten. Hierbei betrachten wir vor allem das Auflösen von Gleichungen und Ungleichungen mit und ohne Beträge. Solche Rechnungen sind bis zum Ende des Studiums und darüber hinaus immer wieder nötig.

Christian Karpfinger
Kapitel 4. Maschinenzahlen

Computeralgebrasysteme wie MAPLE oder MATHEMATICA können symbolisch rechnen, also z. B. mit $$\sqrt{2}$$ 2 als positiver Lösung von $$x^2 -2=0$$ x 2 - 2 = 0 umgehen. Wir sehen im Folgenden von diesem symbolischen Rechnen ab und betrachten Maschinenzahlen. Maschinenzahlen sind jene Zahlen, die in einem Rechner gespeichert sind. Aufgrund eines nur endlichen Speichers können auf einem Rechner auch nur endlich viele Zahlen dargestellt werden. Das hat weitreichende Konsequenzen, da jede reelle Zahl, die keine Maschinenzahl ist, zu einer Maschinenzahl gerundet werden muss, damit der Rechner mit ihr weiterrechnen kann. Es entstehen also Rundungsfehler, die das Ergebnis teilweise stark verfälschen bzw. unbrauchbar machen. Die Speicherung der Maschinenzahlen ist teilweise genormt, z. B. durch die Norm IEEE 754. Die Grundlage ist die Binärdarstellung der reellen Zahlen.

Christian Karpfinger
Kapitel 5. Polynome

Oft hat man es in der höheren Mathematik mit dem Problem zu tun, ein Polynom in ein Produkt von Linearfaktoren zu zerlegen, falls dies denn möglich ist. Diese so fundamentale Aufgabe werden wir immer wieder auf verschiedenen Gebieten der Ingenieurmathematik treffen, z. B. beim Lösen polynomialer Ungleichungen, beim Berechnen der Eigenwerte einer Matrix oder auch beim Bestimmen einer Basis des Lösungsraums verschiedener linearer Differentialgleichungen. Rationale Funktionen sind Quotienten, deren Zähler und Nenner Polynome sind. Bei der Partialbruchzerlegung werden rationale Funktionen als Summanden einfacher rationaler Funktionen geschrieben. Diese Zerlegung ist elementar durchführbar und gründet auf der Faktorisierung von Polynomen. Die Anwendungen dieser Zerlegung in der Ingenieurmathematik sind vielfältig, z. B. beim Integrieren rationaler Funktionen oder auch beim Lösen linearer Differentialgleichungen mit Hilfe der Laplacetransformation.

Christian Karpfinger
Kapitel 6. Trigonometrische Funktionen

Wir betrachten in diesem Kapitel die vier trigonometrischen FunktionenFunktiontrigonometrische Sinus, Kosinus, Tangens und Kotangens und ihre Umkehrfunktionen Arkussinus, Arkuskosinus, Arkustangens und Arkuskotangens. Dabei fassen wir die wichtigsten Eigenschaften dieser Funktionen zusammen und machen uns mit ihren Graphen vertraut. Wir werden diese Funktionen gleich im nächsten Kapitel bei der Einführung der komplexen Zahlen benutzen. In späteren Kapiteln werden wir auf diese Funktionen sowohl in der Analysis wie auch in der linearen Algebra wieder treffen.

Christian Karpfinger
Kapitel 7. Komplexe Zahlen – Kartesische Koordinaten

Die Zahlenmengen $$\mathbb {N}\subseteq \mathbb {N}_0 \subseteq \mathbb {Z}\subseteq \mathbb {Q}\subseteq \mathbb {R}$$ N ⊆ N 0 ⊆ Z ⊆ Q ⊆ R kennt man ausZahlkomplexe der Schule. Diese Kette ineinander geschachtelter Zahlenmengen hört bei $$\mathbb {R}$$ R jedoch nicht auf. Die komplexen Zahlen bilden die Zahlenmenge $$\mathbb {C}$$ C , wobei $$\mathbb {R}\subseteq \mathbb {C}$$ R ⊆ C gilt. Beim Rechnen mit reellen Zahlen stößt man beim Wurzelziehen auf Grenzen: Da Quadrate von reellen Zahlen stets positiv sind, ist es in $$\mathbb {R}$$ R nicht möglich, Wurzeln aus negativen Zahlen zu ziehen. Das wird nun in $$\mathbb {C}$$ C sehr wohl möglich sein. Es wird sich zeigen, dass gerade das Wurzelziehen in $$\mathbb {C}$$ C zu einer übersichtlichen Angelegenheit wird. In $$\mathbb {C}$$ C gilt weiterhin der Fundamentalsatz der Algebra: Jedes Polynom vom Grad $$n \ge 1$$ n ≥ 1 zerfällt über dem Zahlbereich $$\mathbb {C}$$ C in n lineare Faktoren. Damit gibt es über $$\mathbb {C}$$ C keine lästigen unzerlegbaren quadratischen Polynome wie $$x^2 + 1$$ x 2 + 1 oder $$x^2 + x + 1$$ x 2 + x + 1 . Die komplexen Zahlen vereinfachen tatsächlich oftmals Probleme. Wir werden solche Beispiele kennenlernen, machen uns nun aber erst einmal in diesem und dem folgenden Kapitel mit allen wesentlichen Eigenschaften komplexer Zahlen vertraut.

Christian Karpfinger
Kapitel 8. Komplexe Zahlen – Polarkoordinaten

Die komplexen Zahlen sind die Punkte des $$\mathbb {R}^2$$ R 2 . Jede komplexe Zahl $$z = a + \mathrm{i}b$$ z = a + i b mit $$a, \, b \in \mathbb {R}$$ a , b ∈ R ist eindeutig durch die kartesischen Koordinaten $$(a,b) \in \mathbb {R}^2$$ ( a , b ) ∈ R 2 gegeben. Die Ebene $$\mathbb {R}^2$$ R 2 kann man sich auch als Vereinigung von Kreisen um den Nullpunkt vorstellen. So lässt sich jeder Punkt $$z \not = 0$$ z ≠ 0 eindeutig beschreiben durch den Radius r des Kreises, auf dem er liegt, und dem Winkel $$\varphi \in (-\pi ,\pi ]$$ φ ∈ ( - π , π ] , der von der positiven x-Achse und z eingeschlossen wird. Man nennt das Paar $$(r,\varphi )$$ ( r , φ ) die Polarkoordinaten von z. Mithilfe dieser Polarkoordinaten können wir die Multiplikation komplexer Zahlen sehr einfach darstellen, außerdem wird das Potenzieren von komplexen Zahlen und das Ziehen von Wurzeln aus komplexen Zahlen anschaulich und einfach.

Christian Karpfinger
Kapitel 9. Lineare Gleichungssysteme

Viele Probleme der linearen Algebra aber auch der Analysis führen auf die Aufgabe, ein lineares Gleichungssystem zu lösen. Solche Gleichungssysteme lassen sich stets vollständig und übersichtlich lösen. Das ist bei den nichtlinearen Gleichungssystemen ganz anders. Die Methode der Wahl zur Lösung eines linearen Gleichungssystems basiert auf dem Gauß’schen Eliminationsverfahren. Wir stellen dieses Verfahren in aller Ausführlichkeit vor und beschreiben auch die Struktur der Lösungsmenge eines solchen Systems.

Christian Karpfinger
Kapitel 10. Rechnen mit Matrizen

Wir haben Matrizen bereits zur Lösung linearer Gleichungssysteme herangezogen: Matrizen waren hierbei ein hilfreiches Mittel, lineare Gleichungssysteme ökonomisch und übersichtlich darzustellen. Matrizen dienen auch in anderer, vielfältiger Art und Weise als Hilfsmittel. Das ist ein Grund, Matrizen für sich zu betrachten und alle Arten von Manipulationen, die mit ihnen möglich sind, übersichtlich darzustellen und einzuüben: Wir werden Matrizen addieren, vervielfachen, multiplizieren, potenzieren, transponieren und invertieren. Aber alles der Reihe nach.

Christian Karpfinger
Kapitel 11. L R-Zerlegung einer Matrix

Wir betrachten das Problem, zu einer invertierbaren Matrix $$A \in \mathbb {R}^{n\times n}$$ A ∈ R n × n und einem Vektor $$b \in \mathbb {R}^n$$ b ∈ R n einen Vektor $$x \in \mathbb {R}^n$$ x ∈ R n mit $$A \, x = b$$ A x = b zu bestimmen; kurz: Wir lösen das lineare Gleichungssystem $$A x = b$$ A x = b . Formal erhält man die Lösung durch $$x = A^{-1} b$$ x = A - 1 b . Aber die Berechnung von $$A^{-1}$$ A - 1 ist bei einer großen Matrix A aufwendig. Die Cramer’sche Regel (siehe Rezept in Abschn. 12.3) ist aus numerischer Sicht zur Berechnung der Lösung x ungeeignet. Tatsächlich liefert das Gauß’sche Eliminationsverfahren, das wir auch in Kap. 9 zur händischen Lösung eines LGS empfohlen haben, eine Zerlegung der Koeffizientenmatrix A, mit deren Hilfe es möglich ist, ein Gleichungssystem der Form $$A \, x = b$$ A x = b mit invertierbarem A zu lösen. Diese sogenannte $$L\, R$$ L R -Zerlegung ist zudem numerisch gutartig. Gleichungssysteme mit bis zu etwa 10000 Zeilen und Unbekannten lassen sich auf diese Weise vorteilhaft lösen. Für größere Gleichungssysteme sind iterative Lösungsverfahren zu bevorzugen (siehe Kap. 71).

Christian Karpfinger
Kapitel 12. Die Determinante

Jede quadratische Matrix A hat eine Determinante $$\det (A)$$ det ( A ) . Mithilfe dieser Kenngröße von A können wir ein entscheidendes Invertierbarkeitskriterium für A angeben: Eine quadratische Matrix A ist genau dann invertierbar, wenn $$\det (A) \not = 0$$ det ( A ) ≠ 0 gilt. Dieses Kriterium ist es, das die Determinante so nützlich macht: Wir können damit die Eigenwerte und damit wiederum die in den Ingenieurwissenschaften so entscheidenden Probleme Hauptachsentransformation oder Singulärwertzerlegung lösen. Die Berechnung der Determinante $$\det (A)$$ det ( A ) ist bei großer Matrix A äußerst aufwendig. Wir geben Tricks an, um die Berechnung noch übersichtlich zu halten. Im Folgenden ist mit $$\mathbb {K}$$ K stets einer der Zahlbereiche $$\mathbb {R}$$ R oder $$\mathbb {C}$$ C gemeint.

Christian Karpfinger
Kapitel 13. Vektorräume

Der Begriff des Vektorraums ist ein sehr nützlicher Begriff: Viele Mengen mathematischer Objekte gehorchen ein und denselben Regeln und können unter diesem Begriff zusammengefasst werden. Ob wir nun die Lösungsmenge eines homogenen linearen Gleichungssystems oder die Menge der $$2\pi $$ 2 π -periodischen Funktionen betrachten; diese Mengen bilden Vektorräume und ihre Elemente damit Vektoren, die alle den gleichen allgemeingültigen Regeln für Vektoren unterworfen sind. In diesem Kapitel zu den Vektorräumen ist etwas Abstraktionsfähigkeit notwendig. Dies ist zu Beginn zugegebenermaßen schwierig. Vielleicht ist es ein nützlicher Tipp, die Anschauung zu unterdrücken: Vektorräume entziehen sich im Allgemeinen jeder Anschauung, der Versuch, sich unter einem Funktionenraum etwas vorstellen zu wollen, muss einfach scheitern. Mit $$\mathbb {K}$$ K bezeichnen wir immer $$\mathbb {R}$$ R oder $$\mathbb {C}$$ C .

Christian Karpfinger
Kapitel 14. Erzeugendensysteme und lineare (Un-)Abhängigkeit

Jeder Vektorraum hat eine Basis. Dabei ist eine Basis ein linear unabhängiges Erzeugendensystem. Um also überhaupt zu wissen, was eine Basis ist, muss man erst einmal verstehen, was lineare Unabhängigkeit und Erzeugendensystem bedeuten. Das machen wir in diesem Kapitel. Dabei ist ein Erzeugendensystem eines Vektorraums eine Menge, mit der es möglich ist, jeden Vektor des Vektorraums als Summe von Vielfachen der Elemente des Erzeugendensystems zu schreiben. Und die lineare Unabhängigkeit gewährleistet dabei, dass diese Darstellung eindeutig ist. Auf jeden Fall aber ist die Darstellung eines Vektors als Summe von Vielfachen anderer Vektoren der Schlüssel zu allem: Man spricht von Linearkombinationen.

Christian Karpfinger
Kapitel 15. Basen von Vektorräumen

Jeder Vektorraum V hat eine Basis B. Eine Basis ist dabei ein minimales Erzeugendensystem, anders ausgedrückt ein linear unabhängiges Erzeugendensystem, d. h., eine Basis B erzeugt den Vektorraum, und dabei ist kein Element in B überflüssig. Durch die Angabe einer Basis ist ein Vektorraum vollständig bestimmt. In diesem Sinne werden uns Basen nützlich sein: Anstelle den Vektorraum anzugeben, geben wir eine Basis an; damit haben wir dann auch den Vektorraum. Ein Vektorraum hat im Allgemeinen viele verschiedene Basen, aber je zwei Basen eines Vektorraums ist eines gemeinsam: die Anzahl der Elemente der Basen. Diese Anzahl nennt man die Dimension eines Vektorraums. Kennt man die Dimension eines Vektorraums, so ist viel gewonnen: Es lässt sich dann schnell entscheiden, ob ein Erzeugendensystem oder eine linear unabhängige Menge eine Basis ist oder nicht. Wie immer bezeichne $$\mathbb {K}$$ K die Zahlenmenge $$\mathbb {R}$$ R oder $$\mathbb {C}$$ C .

Christian Karpfinger
Kapitel 16. Orthogonalität I

Hat ein Vektorraum ein Skalarprodukt, so kann man jedem Vektor dieses Vektorraums eine Länge und je zwei Vektoren einen Abstand bzw. einen dazwischenliegenden Winkel zuordnen und auch hinterfragen, ob zwei Vektoren orthogonal sind. Dabei ist ein Skalarprodukt ein Produkt von Vektoren, wobei das Resultat ein Skalar ist. So anschaulich diese Begriffe auch sein mögen, so wenig anschaulich werden viele Inhalte des vorliegenden Kapitels sein: Wir betrachten nämlich auch Vektorräume ungleich dem $$\mathbb {R}^2$$ R 2 oder $$\mathbb {R}^3$$ R 3 , also etwa den Vektorraum aller stetigen Funktionen auf einem Intervall [a, b]. Orthogonalität, Winkel und Abstände sind dann nicht durch die Anschauung gegeben, sondern ergeben sich durch Auswerten von Formeln. Dieser Abstraktionsschritt, einfach nur Formeln anzuwenden und dabei jede Anschauung zu unterdrücken, fällt Studienanfängern üblicherweise schwer, wenngleich es so einfach klingt. Dieser Abstraktionsschritt ist aber wichtig, wir werden in späteren Kapiteln auf die hier angesprochenen Sachverhalte zurückkommen.

Christian Karpfinger
Kapitel 17. Orthogonalität II

Wir setzen das wichtige Thema Orthogonalität fort. Dabei beginnen wir mit dem Orthonormalisierungsverfahren von Gram und Schmidt, mit dessen Hilfe aus einer Basis eines euklidischen Vektorraums eine Orthonormalbasis konstruiert werden kann. Wir betrachten dann das Vektor- und Spatprodukt, das sind Produkte zwischen Vektoren im $$\mathbb {R}^3$$ R 3 , und wenden uns dann der orthogonalen Projektion zu.

Christian Karpfinger
Kapitel 18. Das lineare Ausgleichsproblem

Das lineare Ausgleichsproblem trifft man in den Ingenieurwissenschaften in verschiedensten Facetten, mathematisch betrachtet geht es immer um ein und dasselbe: Suche ein x, sodass zu einem Vektor b und einer Matrix A der Wert $$\Vert b - A x\Vert $$ ‖ b - A x ‖ minimal wird. Die Anwendungen davon sind z. B. die Methode der kleinsten Quadrate, das Lösen von überbestimmten Gleichungssystemen oder das Bestimmen von minimalen Abständen von Punkten zu Untervektorräumen.

Christian Karpfinger
Kapitel 19. Die Q R-Zerlegung einer Matrix

In der Theorie ist das lineare Ausgleichsproblem einfach zu lösen, es ist hierbei nur das lineare Gleichungssystem $$A^\top A \, x = A^\top b$$ A ⊤ A x = A ⊤ b zu lösen. In den praktischen Anwendungen hat die Matrix A meist sehr viele Zeilen, sodass ein Lösen mit Bleistift und Papier nicht mehr möglich ist. Aber auch das (naive) Lösen der Normalgleichung mit einem Rechner ist nicht zu empfehlen: Das Berechnen von $$A^\top A$$ A ⊤ A und anschließende Lösen des LGS $$A^\top A \, x = A^\top b$$ A ⊤ A x = A ⊤ b ist instabil und führt somit zu ungenauen Resultaten. Bei der numerischen Lösung des linearen Ausgleichsproblems ist die $$Q\,R$$ Q R -Zerlegung der Matrix A hilfreich. Mit der $$Q\,R$$ Q R -Zerlegung kann das lineare Ausgleichsproblem numerisch stabil gelöst werden.

Christian Karpfinger
Kapitel 20. Folgen

Folgen von reellen bzw. komplexen Zahlen sind von fundamentaler Bedeutung für die Mathematik: Mit ihrer Hilfe werden die grundlegenden Begriffe der Analysis wie Stetigkeit und Differenzierbarkeit erklärt; diese Begriffe können zwar für einen Ingenieur auch ohne den Folgenbegriff verständlich formuliert werden, jedoch werden wir in späteren Kapiteln mithilfe von Folgen Funktionen erklären, die für die Ingenieurmathematik sehr wohl eine bedeutende Rolle spielen, sodass wir auch für Ingenieure nicht vollständig auf diesen Teil der Mathematik verzichten können. Wir werden uns aber in der Darstellung knapp halten und nur auf die für das Verständnis wichtigen Formeln, Regeln, Eigenschaften und Kriterien eingehen.

Christian Karpfinger
Kapitel 21. Berechnung von Grenzwerten von Folgen

Bisher stellten wir immer nur Fragen nach Konvergenz oder Divergenz und haben noch kein Augenmerk auf das Berechnen des evtl. vorhandenen Grenzwertes geworfen. Das holen wir in diesem Kapitel nach: Die Methoden unterscheiden sich je nachdem, ob man es mit einer expliziten oder einer rekursiven Folge zu tun hat.

Christian Karpfinger
Kapitel 22. Reihen

Mit Hilfe von Reihen werden wir wichtige Funktionen erklären. Aber das ist Zukunftsmusik, dazu Näheres in Kap. 24 zu Potenzreihen. Doch wir wollen hier schon klar machen, dass der Begriff einer Reihe fundamental für unsere Zwecke ist. Mit den Folgen haben wir schon den wesentlichen Grundstein gelegt, da Reihen spezielle Folgen sind. Aber anders als bei Folgen, ist es bei Reihen meist sehr schwierig, den Grenzwert zu bestimmen. Das macht aber gar nicht viel aus, für Reihen stehen nämlich einige Hilfsmittel zur Verfügung, die es erlauben, über Konvergenz oder Divergenz der Reihe zu entscheiden. Und diese Kenntnis allein genügt im Allgemeinen.

Christian Karpfinger
Kapitel 23. Abbildungen

Wir hatten bereits erste Kontakte mit Funktionen, allgemeiner Abbildungen. Außerdem sind wir aus der Schulzeit mit dem Funktionsbegriff vertraut. Wir betrachten in diesem Kapitel allgemeine Eigenschaften von Abbildungen bzw. Funktionen, die uns helfen, viele, bisher nur schwammig formulierte Eigenschaften richtig zu verstehen, z. B. die Umkehrbarkeit von Abbildungen.

Christian Karpfinger
Kapitel 24. Potenzreihen

Potenzreihen sind Reihen in einer Unbestimmten x. Für manche Werte für x kann die Potenzreihe konvergieren, für andere evtl. divergieren. Der Bereich all jener x, für die eine Potenzreihe konvergiert, ist der Konvergenzbereich der Potenzreihe. Die Aufgabe zu Potenzreihen lautet meistens, den Konvergenzbereich K zu dieser Reihe zu bestimmen. Die Menge K spielt eine wichtige Rolle: Jede Potenzreihe liefert eine Funktion auf K; auf diese Art und Weise erhalten wir wichtige Funktionen. Auch Funktionen, die im ersten Augenschein nichts mit Reihen zu tun haben, können vielfach als solche aufgefasst werden; man kann Funktionen nämlich oftmals in Reihen entwickeln. Ob wir nun die Taylorreihe oder die Fourierreihe betrachten, immer geht es darum, eine komplizierte Funktion als Summe einfacher Funktionen aufzufassen.

Christian Karpfinger
Kapitel 25. Grenzwerte und Stetigkeit

Der Begriff des Grenzwerts spielt nicht nur bei Folgen eine Rolle, auch eine Funktion $$f: D \rightarrow W$$ f : D → W hat Grenzwerte an den Stellen $$a \in D$$ a ∈ D bzw. an den Randpunkten a von D. Wir bilden diese Grenzwerte mit Hilfe von Folgen und erhalten damit eine Vorstellung über das Verhalten der Funktion $$f: D \rightarrow W$$ f : D → W für x gegen a. Die Stetigkeit einer Funktion f lässt sich wiederum mit dem Begriff des Grenzwerts formulieren. Die Vorstellung einer stetigen Funktion ist ganz einfach, solange wir beschränkte Funktionen auf beschränkten Intervallen betrachten: Eine Funktion ist stetig, wenn sich der Graph der Funktion f ohne abzusetzen zeichnen lässt. Die Stetigkeit einer Funktion hat weitreichende Konsequenzen, die die Existenz von Nullstellen und Extrema betreffen. Wir geben diese Sätze an und schildern ein Verfahren, auch dann Nullstellen von stetigen Funktionen zumindest näherungsweise zu bestimmen, wenn dies analytisch nicht möglich ist.

Christian Karpfinger
Kapitel 26. Differentiation

MitDifferentiation der Differentiation treffen wir nun auf den Kern der Analysis. Die meisten Funktionen der Ingenieurmathematik sind nicht nur stetig, sie sind sogar differenzierbar. Mit dieser Differentiation erschließt sich nun die Möglichkeit, Extrema solcher Funktionen zu bestimmen. Das ist die wesentliche Anwendung dieser Theorie. Aber auch das Monotonieverhalten von Funktionen lässt sich mit dieser Theorie beurteilen, und nicht zuletzt können wir bei differenzierbaren Funktionen auch oft die Nullstellen mit einem effizienten Verfahren bestimmen. Aber bevor wir auf diese zahlreichen Anwendungen der Differentiation zu sprechen kommen, müssen wir kurz erläutern, wie man sich diese vorstellen kann und welche Regeln für das Differenzieren gelten. Viele dieser Regeln kennt man aus der Schulzeit, manche werden aber auch neu sein. Wir geben einen Überblick über diese Regeln und runden dieses Kapitel mit zahlreichen, sicher auch verblüffenden Beispielen ab.

Christian Karpfinger
Kapitel 27. Anwendungen der Differentialrechnung I

Die Differentialrechnung hat zahlreiche Anwendungen in der Ingenieurmathematik. Unter diesen vielen Anwendungen sind manche aus der Schulzeit bekannt, wie etwa die Beurteilung des Monotonieverhaltens und der Konvexität bzw. Konkavität oder das Bestimmen lokaler Extrema. Wir besprechen außerdem ein Verfahren zur Bestimmung von Grenzwerten, nämlich die Regel von L’Hospital.

Christian Karpfinger
Kapitel 28. Anwendungen der Differentialrechnung II

Wir besprechen weitere Anwendungen der Differentiation, wie das Newtonverfahren zur näherungsweisen Bestimmung von Nullstellen von Funktionen und die Taylorentwicklung zur Approximation von Funktionen durch Polynome bzw. Darstellung von Funktionen durch Potenzreihen.

Christian Karpfinger
Kapitel 29. Polynom- und Splineinterpolation

WirSplineinterpolation bestimmen zu vorgegebenen Stützstellen $$(x_i,y_i)$$ ( x i , y i ) ein Polynom p mit $$p(x_i) = y_i$$ p ( x i ) = y i . Wir finden dieses Polynom durch Auswerten der Lagrange’schen Interpolationsformel. So bestechend einfach wie es ist, dieses Interpolationspolynom zu bestimmen, so wirkungsvoll ist dieses Instrument: Wir werden diese Polynominterpolation in späteren Kapiteln mehrfach anwenden, etwa zur numerischen Approximation bestimmter Integrale bzw. Lösungen von Anfangswertproblemen. Neben der Polynominterpolation betrachten wir auch die Splineinterpolation zu gegebenen Stützstellen. Das Ziel ist hierbei nicht, eine geschlossene Funktion anzugeben, welche die Stützstellen interpoliert, es wird vielmehr eine abschnittsweise definierte Funktion angegeben, deren Graph möglichst glatt die gegebenen Stützstellen durchläuft.

Christian Karpfinger
Kapitel 30. Integration I

Man unterscheidet zwei Arten von Integration einer Funktion f: Bei der bestimmten Integration wird ein Flächeninhalt bestimmt, der zwischen Graph von f und x-Achse eingeschlossen wird, bei der unbestimmten Integration wird eine Stammfunktion F zu f bestimmt, also eine Funktion F mit $$F' = f$$ F ′ = f . Der Zusammenhang dieser beiden Arten ist sehr eng und wird im Hauptsatz der Differential- und Integralrechnung geklärt. Die Integralrechnung gehört neben der Differentialrechnung zu den Herzstücken der Analysis. So wie es Ableitungsregeln gibt, gibt es auch Integrationsregeln. Wir stellen die wichtigsten in diesem Kapitel übersichtlich zusammen. Während das Ableiten aber doch eher leicht von der Hand geht, sind beim Integrieren oftmals Kunstgriffe nötig, um ein Integral zu bestimmen.

Christian Karpfinger
Kapitel 31. Integration II

Zu jeder rationalen Funktion lässt sich eine Stammfunktion bestimmen. Das Verfahren ist übersichtlich, aber rechenaufwendig und damit fehleranfällig. Wir geben eine Beschreibung dieses Verfahrens in einem Rezept an. Durch eine Standardsubstitution können Integranden, die rationale Funktionen in Sinus- und Kosinusfunktionen sind, stets in echte rationale Funktionen umgewandelt werden. Damit sind wir in der Lage, auch zu solchen Integranden Stammfunktionen zu bestimmen. Die Anwendungen der Integration sind im Wesentlichen das Bestimmen von Flächeninhalten; aber mit etwas Interpretationswillen können wir auch Oberflächen und Volumina bestimmen, die von rotierenden Graphen eingeschlossen werden. (Bestimmte) Integrale sind oftmals analytisch nicht exakt bestimmbar. Abhilfe schafft hier die numerische Integration; hierbei wird näherungsweise, aber eben exakt genug, ein bestimmtes Integral berechnet.

Christian Karpfinger
Kapitel 32. Uneigentliche Integrale

Wir bestimmen nun Intergrale über unbeschränkte Intervalle oder unbeschränkte Funktionen. Solche Integrale sind die Grundlage für Integraltransformationen wie die Laplace- oder Fouriertransformation. Das wesentliche Hilfsmittel zur Bestimmung solcher uneigentlicher Integrale ist der Begriff des Grenzwerts: Wir legen nämlich eine fiktive Grenze d fest und berechnen ein bestimmtes Integral $$I=I(d)$$ I = I ( d ) in Abhängigkeit von d und überlegen dann, ob z. B. der Grenzwert $$\lim _{d \rightarrow \pm \infty } I(d)$$ lim d → ± ∞ I ( d ) existiert.

Christian Karpfinger
Kapitel 33. Separierbare und lineare Differentialgleichungen 1. Ordnung

Das Thema Differentialgleichungen zählt zu den wichtigsten Themen der Ingenieur- und naturwissenschaftlichen Mathematik. Differentialgleichungen beschreiben Bewegungen, Strömungen, Biegungen, Modelle, Vorstellungen, ... Daher wird man mit Differentialgleichungen bei den Ingenieur- und Naturwissenschaften meist sehr früh im Studium konfrontiert, vor allem in der Physik. Manche Typen von Differentialgleichungen lassen sich mit den bisher entwickelten Methoden lösen. Wir behandeln in diesem und den nächsten Kapiteln einige solcher Typen und zeigen, wie man diese rezeptartig lösen kann. Tatsächlich sind die Beispiele dieses Kapitels nicht repräsentativ für die Beispiele aus der Praxis. In der Praxis hat man viel kompliziertere Differentialgleichungen, bei denen sich eine Lösungsfunktion x(t) meistens nicht analytisch angeben lässt; man benutzt dann numerische Methoden, um näherungsweise den Wert x(t) an gewissen Stellen t der Lösung x zu erhalten. Auch diese Themen werden wir behandeln (siehe Kap. 36). Aber um überhaupt verstehen zu können, wo die Probleme bei der Lösungsfindung von Differentialgleichungen liegen, sollte man auch einmal ein paar einfache lösbare Gleichungen betrachten.

Christian Karpfinger
Kapitel 34. Lineare Differentialgleichungen mit konstanten Koeffizienten

Bei den linearen Differentialgleichungen können wir zwei Arten unterscheiden: Es gibt solche, bei denen alle Koeffizienten konstant sind, und solche, bei denen das nicht der Fall ist, bei denen also manche Koeffizienten Funktionen in t sind. Man ahnt sofort, dass die Lösungsfindung bei jenen mit nichtkonstanten Koeffizienten im Allgemeinen schwieriger ist. Tatsächlich gibt es schon keine allgemeine Methode zur Lösungsfindung mehr, wenn nur die Ordnung größer gleich 2 ist. Umso erstaunlicher ist es, dass sich alle linearen Differentialgleichungen mit konstanten Koeffizienten im Allgemeinen durch ein übersichtliches Schema lösen lassen (sofern die Störfunktion nicht zu sehr stört). Wir behandeln dies im vorliegenden Kapitel. Die allgemeine Form einer linearen Differentialgleichung n-ter Ordnung mit konstanten Koeffizienten lautet $$\begin{aligned} a_n \, x^{(n)}(t) + a_{n-1} \, x^{(n-1)}(t) + \cdots + a_1 \, \dot{x}(t) + a_0\, x(t) = s(t) \end{aligned}$$ a n x ( n ) ( t ) + a n - 1 x ( n - 1 ) ( t ) + ⋯ + a 1 x ˙ ( t ) + a 0 x ( t ) = s ( t ) mit $$a_n ,\dots ,a_0 \in \mathbb {R}$$ a n , ⋯ , a 0 ∈ R und $$a_n \not = 0$$ a n ≠ 0 . Ist die StörfunktionStörfunktion $$s = s(t)$$ s = s ( t ) die Nullfunktion, so nennt man die Differentialgleichung homogen,Differentialgleichunghomogene sonst Differentialgleichunginhomogene inhomogen.

Christian Karpfinger
Kapitel 35. Einige besondere Typen von Differentialgleichungen

Bei wenigen Typen von Differentialgleichungen lässt sich ein Lösungsverfahren zur analytischen Lösung angeben. Wir haben bereits die separierbaren, die linearen 1. Ordnung und die linearen Differentialgleichungen n-ter Ordnung mit konstanten Koeffizienten behandelt. In diesem Kapitel betrachten wir einige weitere Typen von Differentialgleichungen, die sich mit einem speziellen Ansatz lösen lassen. Um uns sicher zu sein, dass wir jeweils alle Lösungen erhalten, erinnern wir an das Ergebnis in Abschn. 34.1: Eine homogene lineare DGL n-ter Ordnung hat einen n-dimensionalen Lösungsraum. Wir haben also stets dann alle Lösungen einer homogenen linearen DGL n-ter Ordnung bestimmt, wenn wir n linear unabhängige Lösungen angeben können.

Christian Karpfinger
Kapitel 36. Numerik gewöhnlicher Differentialgleichungen I

Differentialgleichungen und damit Anfangswertprobleme nehmen im Ingenieurwesen und in der Naturwissenschaft eine nicht zu unterschätzende Rolle ein. Wir haben dieser so fundamentalen Problematik zahlreiche Kapitel gewidmet. In den Kap. 33, 34 und 35 befassten wir uns mit der (exakten) analytischen Lösung von Differentialgleichungen bzw. Anfangswertproblemen. Wir haben in den genannten Kapiteln auch mehrfach angesprochen, dass Anfangswertprobleme nur in seltenen Fällen analytisch lösbar sind. In den meisten Fällen muss man sich mit Näherungslösungen begnügen. Dabei bestimmt man nicht die gesuchte Funktion $$x = x(t)$$ x = x ( t ) näherungsweise, sondern im Allgemeinen die Werte $$x(t_i)$$ x ( t i ) der unbekannten Funktion x an diskreten Stellen $$t_0 ,\dots ,t_n$$ t 0 , ⋯ , t n .

Christian Karpfinger
Kapitel 37. Lineare Abbildungen und Darstellungsmatrizen

Eine lineare Abbildung ist eine Abbildung $$f:V \rightarrow W$$ f : V → W zwischen $${\mathbb K}$$ K -Vektorräumen V und W mit der Eigenschaft $$f(\lambda v + w) = \lambda f(v) + f(w)$$ f ( λ v + w ) = λ f ( v ) + f ( w ) für alle $$\lambda \in {\mathbb K}$$ λ ∈ K und $$v, w \in V$$ v , w ∈ V . Eine solche Abbildung ist also mit der Vektoraddition und der Multiplikation mit Skalaren verträglich; man spricht auch von einer strukturerhaltenden Abbildung. Uns interessiert an solchen Abbildungen vor allem die Möglichkeit, eine solche nach Wahl von Basen B und C in den Vektorräumen V und W als Matrix darstellen zu können. Das Anwenden der linearen Abbildung f auf einen Vektor v wird dadurch zur Multiplikation der darstellenden Matrix M auf den Koordinatenvektor von v. Wie schon in früheren Kapiteln zur linearen Algebra bezeichnet $${\mathbb K}$$ K wieder einen der beiden Zahlkörper $$\mathbb {R}$$ R oder $${\mathbb C}$$ C .

Christian Karpfinger
Kapitel 38. Basistransformation

Die Darstellungsmatrix einer linearen Abbildung ist nicht eindeutig, sie hängt von der Wahl der Basen B und C ab. Hat man erst einmal eine Darstellungsmatrix bezüglich der Basen B und C gegeben, so findet man mit der Basistransformationsformel die Darstellungsmatrix bzgl. anderer Basen $$B'$$ B ′ und $$C'$$ C ′ . Damit gewinnen wir nicht nur eine zweite Möglichkeit, eine Darstellungmatrix zu ermitteln, diese Basistransformationsformel hat entscheidende Auswirkungen auf die weitere Theorie von Darstellungsmatrizen linearer Abbildungen. Wieder bezeichnet $${\mathbb K}$$ K einen der beiden Zahlkörper $$\mathbb {R}$$ R oder $${\mathbb C}$$ C .

Christian Karpfinger
Kapitel 39. Diagonalisierung – Eigenwerte und Eigenvektoren

Mit dem Diagonalisieren von Matrizen sind wir im Zentrum der linearen Algebra angelangt. Den Schlüssel zum Diagonalisieren bilden Vektoren v ungleich dem Nullvektor mit $$A \, v = \lambda \, v$$ A v = λ v für ein $$\lambda \in {\mathbb K}$$ λ ∈ K – man nennt v Eigenvektor und $$\lambda $$ λ Eigenwert. Beim Diagonalisieren einer Matrix $$A \in {\mathbb K}^{n \times n}$$ A ∈ K n × n bestimmt man alle Eigenwerte von A und eine Basis des $${\mathbb K}^n$$ K n aus Eigenvektoren. Die Anwendungen des Diagonalisierens von Matrizen sind vielfältig, Themen wie Hauptachsentransformation, Singulärwertzerlegung und Matrixexponentialfunktion zur Lösung von Differentialgleichungssystemen basieren auf dem Diagonalisieren. Wie schon oftmals zuvor bezeichnet $${\mathbb K}$$ K einen der beiden Zahlkörper $$\mathbb {R}$$ R oder $${\mathbb C}$$ C .

Christian Karpfinger
Kapitel 40. Numerische Berechnung von Eigenwerten und Eigenvektoren

Die Berechnung der Eigenwerte $$\lambda $$ λ einer Matrix A als Nullstellen des charakteristischen Polynoms $$\chi _{A}$$ χ A ist numerisch ungünstig – kleine Fehler in den Koeffizienten der Matrix können zu wesentlich verschiedenen Nullstellen von $$\chi _A$$ χ A führen. Wir geben in diesem Kapitel andere Methoden an, die es erlauben, die Eigenwerte und dazugehörige Eigenvektoren numerisch zu bestimmen. Zum Teil sind diese Verfahren auf spezielle Matrizen zugeschnitten.

Christian Karpfinger
Kapitel 41. Quadriken

Eine Quadrik ist die Nullstellenmenge eines quadratischen Polynoms in n Variablen. Für die praktischen Anwendungen sind vor allem die Fälle $$n = 2$$ n = 2 und $$n=3$$ n = 3 wesentlich. Im Fall $$n=2$$ n = 2 lautet eine allgemeine quadratische Gleichung $$\begin{aligned} a x^2 + b xy + c y^2 + dx + ey +f = 0 \end{aligned}$$ a x 2 + b x y + c y 2 + d x + e y + f = 0 und im Fall $$n= 3$$ n = 3 $$\begin{aligned} a x^2 + b xy + cxz + d y^2 + e yz + f z^2 + g x + h y + i z + j = 0 \, . \end{aligned}$$ a x 2 + b x y + c x z + d y 2 + e y z + f z 2 + g x + h y + i z + j = 0 . Die Menge aller Punkte $$(x,y)^\top $$ ( x , y ) ⊤ des $$\mathbb {R}^2$$ R 2 bzw. $$(x,y,z)^\top $$ ( x , y , z ) ⊤ des $$\mathbb {R}^3$$ R 3 , welche diese Gleichung lösen, bilden die Quadrik, man spricht auch von Kurven bzw. Flächen zweiter Ordnung. Diese Kurven bzw. Flächen weisen Symmetrien auf, tatsächlich gibt es nur wenige wesentlich verschiedene Typen solcher Quadriken. Bei der Hauptachsentransformation geht es darum, ein Koordinatensystem zu bestimmen, sodass die Koordinatenachsen parallel zu den Hauptachsen der Quadrik sind. In einem zweiten Schritt verschiebt man das Koordinatensystem in einen eventuellen Mittelpunkt der Quadrik. Es ist dann leicht möglich, den Typ der Quadrik anzugeben.

Christian Karpfinger
Kapitel 42. Schurzerlegung und Singulärwertzerlegung

Matrixfaktorisierungen wie etwa die $$L\,R$$ L R -Zerlegung, $$A = P\, L\,R$$ A = P L R , die $$Q\,R$$ Q R -Zerlegung, $$A = Q\, R$$ A = Q R , die Diagonalisierung $$A= B \, D \, B^{-1}$$ A = B D B - 1 sind bei den verschiedensten Anwendungen in der Ingenieurmathematik von Vorteil. Wir besprechen in diesem Kapitel weitere Faktorisierungen, nämlich die Schurzerlegung und die Singulärwertzerlegung einer Matrix A. Anwendungen finden diese Zerlegungen in der numerischen Mathematik, aber auch in der Signal- und Bildverarbeitung. Beide Methoden greifen Altbekanntes auf und wiederholen daher auch viele in früheren Kapiteln zur linearen Algebra entwickelte Konzepte. Wir formulieren diese Faktorisierungen rezeptartig und greifen dabei auf frühere Rezepte zurück.

Christian Karpfinger
Kapitel 43. Die Jordannormalform I

Nicht jede quadratische Matrix $$A \in \mathbb {R}^{n \times n}$$ A ∈ R n × n ist diagonalisierbar. Zerfällt aber das charakteristische Polynom $$\chi _A$$ χ A in Linearfaktoren, so existiert zumindest eine Schurzerlegung (siehe Kap. 42). Die Jordannormalform ist gewissermaßen eine Verbesserung der Schurzerlegung: Sie existiert unter denselben Voraussetzungen wie die Schurzerlegung und ist eine besonders einfache obere Dreiecksmatrix: Sie hat abgesehen von einigen Einsen auf der oberen Nebendiagonalen Diagonalgestalt. Das Wesentliche ist nun, dass zu jeder komplexen Matrix A eine solche Jordannormalform J existiert. Das Bestimmen der A auf Jordannormalform J transformierenden Matrix S, das ist die Matrix S mit $$J = S^{-1} A \, S$$ J = S - 1 A S , ist etwas aufwendig: Der erste Schritt dazu ist das Bestimmen der verallgemeinerten Eigenräume. Das erledigen wir im vorliegenden Kapitel, im nächsten Kapitel zeigen wir, wie man hieraus S erhält.

Christian Karpfinger
Kapitel 44. Die Jordannormalform II

Zu jeder quadratischen komplexen Matrix A gibt es eine Jordannormalform J, d. h., es existiert eine invertierbare Matrix $$B \in {\mathbb C}^{n \times n}$$ B ∈ C n × n mit $$J = B^{-1} A \, B$$ J = B - 1 A B . Die Spalten von B bilden eine zugehörige Jordanbasis. Wir erhalten eine solche Matrix bzw. Jordanbasis B durch sukzessives Durchlaufen der verallgemeinerten Eigenräume. Die Schlüsselrolle übernehmen dabei die Matrizen $$N = A - \lambda \, E_n$$ N = A - λ E n für die Eigenwerte $$\lambda $$ λ von A.

Christian Karpfinger
Kapitel 45. Definitheit und Matrixnormen

Eine reelle Zahl ist positiv oder negativ oder null. Für symmetrische Matrizen ist eine ähnliche Unterscheidung mittels der Definitheit möglich. Die Definitheit wird bei der Beurteilung von Extremalstellen einer Funktion mehrerer Veränderlicher eine entscheidende Rolle spielen. Beurteilen kann man die Definitheit einer symmetrischen Matrix mittels ihrer (reellen) Eigenwerte. Es ist oftmals nicht nur sinnvoll, Matrizen in positive oder negative zu unterscheiden, man kann Matrizen auch eine Länge bzw. Norm zuordnen. Hierbei gibt es verschiedene Möglichkeiten. Die wichtigste Norm ist die Spektralnorm einer Matrix A. Sie wird mittels der Eigenwerte von $$A^\top A$$ A ⊤ A gebildet.

Christian Karpfinger
Kapitel 46. Funktionen mehrerer Veränderlicher

Wir wenden uns nun der Analysis von Funktionen mehrerer Veränderlicher zu. Wir betrachten also Funktionen $$f: D \rightarrow W$$ f : D → W mit $$D \subseteq \mathbb {R}^n$$ D ⊆ R n und $$W \subseteq \mathbb {R}^m$$ W ⊆ R m für natürliche Zahlen m und n. Dazu zeigen wir zuerst an etlichen Beispielen, welche Arten solcher Funktionen überhaupt noch veranschaulicht werden können. Schließlich verallgemeinern wir offene und abgeschlossene Intervalle, Folgen und Grenzwerte von Folgen auf den Vektorraum $$\mathbb {R}^n$$ R n und erklären abschließend die Stetigkeit von Funktionen mehrerer Veränderlicher analog zum Fall einer Funktion einer Veränderlichen. Bei diesen Begrifflichkeiten tauchen einige neue Phänomene auf, aber es bleibt auch vieles aus der eindimensionalen Analysis in ihren Grundzügen erhalten.

Christian Karpfinger
Kapitel 47. Partielle Differentiation – Gradient, Hessematrix, Jacobimatrix

Bei der Differentiation einer Funktion f einer Veränderlichen x untersucht man das Änderungsverhalten von f in Richtung x. Bei einem Skalarfeld f in den n Veränderlichen $$x_1 ,\dots ,x_n$$ x 1 , ⋯ , x n bieten sich viele Richtungen an, in die sich die Funktion verändern kann. Die partiellen Ableitungen geben dieses Änderungsverhalten in die Richtungen der Achsen an, die Richtungsableitung viel allgemeiner in jede beliebige Richtung. Dieses partielle Ableiten (und auch das Bilden der Richtungsableitung) bringt zum Glück keine neuen Schwierigkeiten mit sich: Man leitet einfach nach der betrachteten Veränderlichen ab, wie man es vom eindimensionalen Fall gewohnt ist, und friert dabei alle anderen Veränderlichen ein. Auf diese Art und Weise erhalten wir leicht den Gradienten als Sammlung der ersten partiellen Ableitungen, und die Hessematrix als Sammlung der zweiten partiellen Ableitungen eines Skalarfeldes f und die Jacobimatrix als Sammlung der ersten partiellen Ableitungen einer vektorwertigen Funktion in mehreren Veränderlichen.

Christian Karpfinger
Kapitel 48. Anwendungen der partiellen Ableitungen

In Kap. 28 haben wir Anwendungen der Differentiation einer Veränderlichen angesprochen. Das machen wir nun entsprechend mit der (partiellen) Differentiation von Funktionen mehrerer Veränderlicher: Wir beschreiben das (mehrdimensionale) Newton-Verfahren zur Bestimmung von Nullstellen von Vektorfeldern und die Taylorentwicklung für Skalarfelder, um gegebene Skalarfelder lokal durch eine Tangentialebene oder Schmiegparabel zu approximieren. Dazu müssen wir inhaltlich nichts Neues lernen, sondern nur bisher geschaffenes Wissen zusammentragen.

Christian Karpfinger
Kapitel 49. Extremwertbestimmung

Die Wertemenge eines Skalarfeldes $$f:D\subseteq \mathbb {R}^n \rightarrow \mathbb {R}$$ f : D ⊆ R n → R liegt in $$\mathbb {R}$$ R . Damit ist es möglich, die Werte eines Skalarfeldes der Größe nach zu unterscheiden und der Frage nachzugehen, ob lokal oder global extremale Werte angenommen werden. Erfreulicherweise kann diese Suche nach Extremalstellen und Extrema analog zum eindimensionalen Fall behandelt werden: Man bestimmt die Kandidaten als Nullstellen des Gradienten (dem Pendant der ersten Ableitung) und prüft dann mit der Hessematrix (dem Pendant der zweiten Ableitung) nach, ob es sich bei den Kandidaten tatsächlich um Extremalstellen handelt. Bei der Suche nach globalen Extrema ist dann noch der Rand des Definitionsbereiches von f zu berücksichtigen.

Christian Karpfinger
Kapitel 50. Extremwertbestimmung unter Nebenbedingungen

In der Praxis sind üblicherweise Extrema von Skalarfeldern in n Variablen $$x_1 ,\dots ,x_n$$ x 1 , ⋯ , x n unter Nebenbedingungen zu bestimmen. Solche Nebenbedingungen lassen sich vielfach als Nullstellenmengen partiell differenzierbarer Funktionen in den Variablen $$x_1 ,\dots ,x_n$$ x 1 , ⋯ , x n beschreiben. Es gibt dann im Wesentlichen zwei Methoden, die gesuchten Extremalstellen und Extrema zu bestimmen, die Einsetzmethode und die Lagrange’sche Multiplikatorenregel. Bei der Einsetzmethode passiert nichts Neues, hierzu haben wir sogar schon ein erstes Beispiel im letzten Kapitel betrachtet; nur ist die Einsetzmethode nicht so universell anwendbar wie die Multiplikatorenregel von Lagrange, die aber wiederum den Nachteil hat, dass sie oft zu nur schwer lösbaren nichtlinearen Gleichungssystemen führt.

Christian Karpfinger
Kapitel 51. Totale Differentiation, Differentialoperatoren

Wir haben bisher bei Funktionen in mehreren Veränderlichen nur partielle Ableitungen bzw. Richtungsableitungen betrachtet. Neben diesen speziellen Ableitungsbegriffen gibt es auch noch die totale Ableitung. Diese totale Ableitung ist erklärt als eine lokale Approximation einer Funktion f durch eine lineare Funktion und führt schließlich zum totalen Differential, das eine linearisierte Fehlerabschätzung ermöglicht. Wir stellen schließlich noch übersichtlich die in den folgenden Kapiteln wichtigen Differentialoperatoren Gradient, Laplace, Divergenz und Rotation und zum Teil ihre Deutungen zusammen.

Christian Karpfinger
Kapitel 52. Implizite Funktionen

Wir haben bereits im Kap. 23 das Thema implizite Funktionen angesprochen: In der Praxis sind Funktionen oft nicht durch explizite Angabe der Abbildungsvorschrift gegeben, sondern implizit durch eine Gleichung bestimmt.

Christian Karpfinger
Kapitel 53. Koordinatentransformationen

Wir haben in $${\mathbb C} = \mathbb {R}^2$$ C = R 2 zwei Möglichkeiten kennengelernt, jedes Element $$z \not = 0$$ z ≠ 0 eindeutig darzustellen: $$z=(a,b)$$ z = ( a , b ) mit den kartesischen Koordinaten a und b bzw. $$z= (r,\varphi )$$ z = ( r , φ ) mit den Polarkoordinaten r und $$\varphi $$ φ . Hinter dieser Darstellung von Elementen bzgl. verschiedener Koordinatensysteme verbirgt sich eine Koordinatentransformation $$(r,\varphi ) \rightarrow (a,b)$$ ( r , φ ) → ( a , b ) . Im $$\mathbb {R}^3$$ R 3 sind gleich mehrere solcher Transformationen von besonderem Interesse, insbesondere Zylinder- und Kugelkoordinaten spielen in der mehrdimensionalen Ingenieuranalysis eine fundamentale Rolle, da sich viele Probleme der Ingenieurmathematik in speziellen Koordinaten viel leichter beschreiben und auch lösen lassen.

Christian Karpfinger
Kapitel 54. Kurven I

Mit dem Thema Kurven kann man Bücher füllen. Schon über die Definition des Begriffs Kurve kann man stundenlang debattieren. Wir tun das nicht. Uns interessieren auch nur ebene Kurven und Raumkurven, pathologische Ausnahmen betrachten wir nicht. Ebene Kurven und Raumkurven haben einen Anfang und ein Ende, eine Länge und eine Krümmung, sie können sich schneiden oder unterschiedlich dargestellt werden. Das sind suggestive Begriffe und Tatsachen, die tatsächlich genau das bedeuten, was man sich auch darunter vorstellt. In den Anwendungen der Mathematik tauchen vielfach Kurven auf: Drähte mit einer Ladungsdichte, Bahnkurven von Teilchen, spiralförmige Bauteile mit einer Dichte – mithilfe von Kurvenintegralen werden wir die Gesamtladung oder Masse von solchen Kurven bestimmen können.

Christian Karpfinger
Kapitel 55. Kurven II

Nachdem wir nun zahlreiche Beispiele von ebenen Kurven und Raumkurven kennen und auch die Länge von Kurven berechnen können, wenden wir uns weiteren speziellen Eigenschaften von Kurven zu: Kurven können auf vielfache Art und Weise parametrisiert werden. Unter diesen vielen Arten spielt die Parametrisierung nach der Bogenlänge eine herausragende Rolle. Wir stellen diese Parametrisierung vor. Weiter haben Kurvenpunkte im Allgemeinen ein begleitendes Dreibein, eine Krümmung und eine Torsion. Diese Vektoren bzw. Größen sind einfach zu bestimmen. Die Leibniz’sche Sektorformel gestattet die Berechnung von Flächeninhalten, die von Kurven eingeschlossen werden, bzw. allgemeiner den Flächeninhalt, der von einem Fahrstrahl überstrichen wird.

Christian Karpfinger
Kapitel 56. Kurvenintegrale

Wir unterscheiden zwei Arten von Kurvenintegralen: Skalare Kurvenintegrale und vektorielle Kurvenintegrale. Bei einem skalaren Kurvenintegral wird ein Skalarfeld längs einer Kurve integriert, beim vektoriellen ein Vektorfeld. In den Anwendungen wird bei den skalaren Integralen eine Masse oder Ladung der beschriebenen Kurve bestimmt, bei den vektoriellen eine Arbeit, die geleistet wird, wenn ein Teilchen längs der Kurve bewegt wird.

Christian Karpfinger
Kapitel 57. Gradientenfelder

Die meisten Vektorfelder, mit denen man es in Technik und Naturwissenschaften zu tun hat, sind Kraftfelder. In der Mathematik fasst man diese und weitere Felder unter dem Begriff Gradientenfelder zusammen. Das Berechnen von vektoriellen Kurvenintegralen wird in solchen Feldern im Allgemeinen deutlich einfacher: Man bestimmt eine Stammfunktion des Feldes und erhält den Wert des vektoriellen Kurvenintegrals durch Einsetzen von Anfangs- und Endpunkt der Kurve in die Stammfunktion; die Differenz dieser Werte ist der Wert des vektoriellen Kurvenintegrals. Insbesondere ist der Wert nicht abhängig vom Verlauf der Kurve.

Christian Karpfinger
Kapitel 58. Bereichsintegrale

Das bestimmte Integral $$\int _a^b f(x) \text {d}x$$ ∫ a b f ( x ) d x liefert den Flächeninhalt, der zwischen $$[a,b] \subseteq \mathbb {R}$$ [ a , b ] ⊆ R und dem Graphen von f eingeschlossen wird. Diese Vorstellung lässt sich leicht verallgemeinern: Bei einem Bereichsintegral $$\int _D f(x_1 ,\dots ,x_n) \text {d}x_1 \cdots \text {d}x_n$$ ∫ D f ( x 1 , ⋯ , x n ) d x 1 ⋯ d x n wird das Volumen bestimmt, das zwischen dem Bereich $$D \subseteq \mathbb {R}^n$$ D ⊆ R n und dem Graphen von f eingeschlossen ist. Ist D eine Teilmenge des $$\mathbb {R}^2$$ R 2 , so ist das ein (dreidimensionales) Volumen.

Christian Karpfinger
Kapitel 59. Die Transformationsformel

Beim Integrieren im Mehrdimensionalen, also über x, y und z, bleibt alles beim Alten: Man integriert sukzessive über die einzelnen Variablen. Diese mehrdimensionale Integration ist zumindest theoretisch unproblematisch. Rechnerische Schwierigkeiten tauchen üblicherweise dann auf, wenn der Bereich D, über den sich das Integral erstreckt, nur mit Komplikationen bezüglich kartesischer Koordinaten dargestellt werden kann. Oftmals ist die Darstellung des Bereichs D einfacher durch die Wahl von z. B. Polar-, Zylinder- oder Kugelkoordinaten. Man integriert dann besser über diese Koordinaten, wobei die Transformationsformel angibt, welchen Korrekturfaktor man beim Wechsel des Koordinatensystems berücksichtigen muss.

Christian Karpfinger
Kapitel 60. Flächen und Flächenintegrale

Den Begriff einer Fläche haben wir bereits in Kap. 46 angesprochen: Während eine Raumkurve eine Funktion in einem Parameter t ist, ist eine Fläche eine Funktion in zwei Parametern u und v. Das Beste ist: Eine Fläche ist auch genau das, was man sich darunter vorstellt. Wichtig sind Oberflächen einfacher Körper wie Kugeln, Zylinder, Tori, Kegel, aber auch Graphen von Skalarfeldern $$f:D \subseteq \mathbb {R}^2 \rightarrow \mathbb {R}$$ f : D ⊆ R 2 → R . Analog zu den skalaren und vektoriellen Kurvenintegralen werden wir skalare und vektorielle Flächenintegrale einführen. Diese Integrale für Flächen haben eine ähnlich anschauliche Interpretation wie jene für Kurven.

Christian Karpfinger
Kapitel 61. Integralsätze I

Die Integralsätze von Green, Gauß und Stokes bilden den Kern der Vektoranalysis. Diesen Sätzen ist gemeinsam, dass jeweils zwei verschiedene Integrale für einen beschränkten und berandeten Bereich B gleich sind, wenn nur die Integranden in einem engen Zusammenhang stehen. In diesem ersten Teil zu den Integralsätzen behandeln wir die ebenen Sätze von Green und Gauß. Es sind natürlich nicht die Sätze eben, nein, sie heißen so, weil sie sich in der Ebene $$\mathbb {R}^2$$ R 2 abspielen.

Christian Karpfinger
Kapitel 62. Integralsätze II

Der Divergenzsatz von Gauß und der Satz von Stokes sind räumliche Integralsätze, sie spielen sich nämlich im $$\mathbb {R}^3$$ R 3 ab. Wir setzen unsere Tradition fort: Wir schildern zuerst einfache Versionen dieser Sätze, verifizieren diese anhand von Beispielen und geben dann allgemeinere Versionen an. Der wahre Nutzen dieser Sätze zeigt sich erst in der Hydrodynamik und Elektrizitätslehre. Mit Hilfe dieser Integralsätze gelingen elegante Schreibweisen physikalischer Zusammenhänge, wie z. B. die Darstellung der Maxwell’schen Gleichungen in differentieller bzw. integraler Form.

Christian Karpfinger
Kapitel 63. Allgemeines zu Differentialgleichungen

Wir setzen die Diskussion von Differentialgleichungen (kurz DGLen) fort, die wir im Kap. 36 mit der Numerik von Differentialgleichungen vorerst beendet hatten. Wir beginnen mit der Betrachtung des Richtungsfeldes einer DGL 1. Ordnung und geben Aufschluss darüber, unter welchen Voraussetzungen ein Anfangswertproblem genau eine Lösung hat. Mithilfe von Matrizen und der Theorie von Funktionen mehrerer Veränderlicher sind wir in der Lage, jede explizite Differentialgleichung n-ter Ordnung auf ein Differentialgleichungssystem 1. Ordnung zurückzuführen. Daher leiten wir unser Augenmerk in den weiteren Kapiteln zu Differentialgleichungen auf Differentialgleichungssysteme (kurz DGL-Systeme) 1. Ordnung.

Christian Karpfinger
Kapitel 64. Die exakte Differentialgleichung

Nicht für jede Differentialgleichung 1. Ordnung gibt es ein Lösungsverfahren. Ist sie jedoch exakt, so finden wir mit der Methode, eine Stammfunktion zu einem Gradientenfeld zu bestimmen, ein übersichtliches Verfahren zur Lösungsfindung einer solchen DGL. Das Beste ist: Selbst wenn eine DGL nicht exakt ist, so lässt sich dennoch oft durch Multiplikation mit einem Multiplikator exakt machen.

Christian Karpfinger
Kapitel 65. Lineare Differentialgleichungssysteme I

Wir betrachten explizite lineare Differentialgleichungssysteme 1. Ordnung, $$\begin{aligned} \dot{\boldsymbol{x}}(t) = A(t) \, {\boldsymbol{x}}(t) + \boldsymbol{s}(t). \end{aligned}$$ x ˙ ( t ) = A ( t ) x ( t ) + s ( t ) . Hierbei ist A(t) eine $$n \times n$$ n × n -Matrix mit den Komponentenfunktionen $$a_{ij}(t)$$ a ij ( t ) und $$\boldsymbol{s}(t)$$ s ( t ) eine Kurve, also ein $$n\times 1$$ n × 1 -Vektor, die StörfunktionStörfunktion. Gesucht ist die Menge aller Lösungskurven $${\boldsymbol{x}}= {\boldsymbol{x}}(t)$$ x = x ( t ) . In dieser Allgemeinheit kann das DGL-System aber nicht gelöst werden. Nur in speziellen Fällen ist es möglich, die Gesamtheit aller Lösungen explizit anzugeben. Wir betrachten in diesem ersten Kapitel zu linearen DGL-Systemen den Fall einer konstanten und diagonalisierbaren Matrix $$A \in \mathbb {R}^{n \times n}$$ A ∈ R n × n und einer Störfunktion, die nicht stört, nämlich $$\boldsymbol{s}(t) = \boldsymbol{0}$$ s ( t ) = 0 . Mithilfe der Eigenwerte und Eigenvektoren von A wird es leicht möglich sein, diesen Fall vollständig zu lösen. Das wesentliche Hilfsmittel hierzu ist die Exponentialfunktion für Matrizen, die auch im allgemeineren Fall, den wir im nächsten Kapitel behandeln, Grundlage sein wird.

Christian Karpfinger
Kapitel 66. Lineare Differentialgleichungssysteme II

Wir betrachten weiterhin explizite lineare Differentialgleichungssysteme 1. Ordnung, $$\begin{aligned} \dot{\boldsymbol{x}}(t) = A(t) \, {\boldsymbol{x}}(t) + \boldsymbol{s}(t), \end{aligned}$$ x ˙ ( t ) = A ( t ) x ( t ) + s ( t ) , wobei wir in diesem zweiten Kapitel zu diesem Thema nach wie vor eine konstante, aber nicht notwendig diagonalisierbare Matrix $$A \in \mathbb {R}^{n \times n}$$ A ∈ R n × n betrachten und erneut $$\boldsymbol{s}= \boldsymbol{0}$$ s = 0 setzen. Mit Hilfe der Jordannormalform von A wird es möglich sein, auch diesen Fall vollständig zu lösen. Erneut liegt der Schlüssel zum Ziel in der Exponentialfunktion für Matrizen.

Christian Karpfinger
Kapitel 67. Lineare Differentialgleichungssysteme III

Wir betrachten weiterhin explizite lineare Differentialgleichungssysteme 1. Ordnung, $$\begin{aligned} \dot{\boldsymbol{x}}(t) = A(t) \, {\boldsymbol{x}}(t) + \boldsymbol{s}(t), \end{aligned}$$ x ˙ ( t ) = A ( t ) x ( t ) + s ( t ) , wobei wir in diesem dritten Kapitel zu diesem Thema den allgemeinen Fall betrachten. Die Lösungsmenge eines solchen Systems setzt sich zusammen aus der Lösungsmenge des homogenen Systems und einer partikulären Lösung. Es ist im Allgemeinen nicht möglich, die Lösungsmenge des homogenen Systems zu bestimmen. Aber wenn man diese Menge doch hat (etwa durch Probieren oder Raten), so erhält man mit der Variation der Konstanten eine partikuläre Lösung und damit die vollständige Lösung. Wir besprechen auch einige Punkte zur Stabilität; dabei untersucht man das Verhalten von Lösungen eines DGL-Systems in der Nähe von Gleichgewichtspunkten.

Christian Karpfinger
Kapitel 68. Randwertprobleme

Bei einem Anfangswertproblem ist die Lösung einer Differentialgleichung gesucht, die zum Zeitpunkt $$t=t_0$$ t = t 0 Anfangsbedingungen erfüllt. In der Praxis hat man es oft mit Randwertproblemen zu tun: Hierbei wird eine Lösung einer Differentialgleichung gesucht, die vorgegebene Werte am Rande eines Definitionsbereichs annimmt.

Christian Karpfinger
Kapitel 69. Grundbegriffe der Numerik

Die numerische Mathematik, kurz auch Numerik genannt, liefert eine zahlenmäßige Lösung eines Problems: Ob nun der Wert einer Formel, die Lösung einer Gleichung oder eines Gleichungssystems, die Nullstelle einer Funktion, die Lösung eines Optimierungsproblems, die Lösungskurve einer gewöhnlichen Differentialgleichung oder evtl. auch die Lösungsfunktion einer partiellen Differentialgleichung gesucht ist: In der numerischen Mathematik entwickelt man Algorithmen, die näherungsweise Lösungen dieser Probleme berechnen. Dabei liegt das Augenmerk auf zwei Dingen: Die Algorithmen sollen genaue Ergebnisse liefern und schnell sein. Beim Rechnen mit dem Computer passieren Fehler. Man unterscheidet: EingabefehlerEingabefehler bzw. DatenfehlerDatenfehler, das sind praktisch unvermeidbare Fehler, die aufgrund z. B. fehlerbehafteter Messwerte entstehen. RundungsfehlerRundungsfehler bzw. VerfahrensfehlerVerfahrensfehler, das sind Fehler, deren Einfluss man vermeiden bzw. verringern kann. Die Kondition liefert ein Maß dafür, welche Auswirkungen Eingabefehler auf die erhaltenen Resultate haben, bei der Stabilität hingegen untersucht man, inwiefern sich Rundungsfehler bzw. Verfahrensfehler auf die Resultate auswirken.

Christian Karpfinger
Kapitel 70. Fixpunktiteration

Das Bestimmen einer Lösung $${\boldsymbol{x}}$$ x einer Gleichung $$F({\boldsymbol{x}}) = \boldsymbol{a}$$ F ( x ) = a ist eines der wichtigsten und häufigsten Probleme der angewandten Mathematik. Tatsächlich ist es aber oft gar nicht möglich, die Lösung einer solchen Gleichung explizit und exakt anzugeben. Die numerische Mathematik stellt iterative Verfahren zur näherungsweisen Lösung von (linearen und nichtlinearen) Gleichungen und Gleichungssystemen zur Verfügung. Diese Verfahren basieren auf der Fixpunktiteration, die Inhalt des vorliegenden Kapitels ist. Wir besprechen nun aber keine Verfahren zur Lösung von Gleichungen oder Gleichungssystemen, sondern betrachten Fixpunktiterationen als ein Objekt per se. Im nächsten Kap. 71 besprechen wir ausführlich iterative Lösungsverfahren für lineare Gleichungssysteme.

Christian Karpfinger
Kapitel 71. Iterative Verfahren für lineare Gleichungssysteme

In vielen Anwendungen, etwa bei Gleichgewichtsbetrachtungen in mechanischen oder elektrischen Netzwerken oder bei der Diskretisierung von Randwertaufgaben bei gewöhnlichen und partiellen Differentialgleichungen, erhält man sehr große Gleichungssysteme, teilweise mit vielen Millionen Zeilen. Die Koeffizientenmatrizen dieser Gleichungssysteme sind typischerweise dünn besetzt, d. h., die meisten Matrixeinträge sind dabei Null. Zur Lösung solcher Systeme benutzt man Iterationsverfahren, um mit einem Startwert $${\boldsymbol{x}}_0$$ x 0 für die exakte Lösung $${\boldsymbol{x}}$$ x des Systems $$A \, {\boldsymbol{x}}= \boldsymbol{b}$$ A x = b in wenig rechenaufwendigen Schritten iterativ eine Näherungslösung $${\boldsymbol{x}}_k$$ x k aus einem Startwert $${\boldsymbol{x}}_0$$ x 0 zu erhalten, $${\boldsymbol{x}}_0 \rightarrow {\boldsymbol{x}}_1 \rightarrow {\boldsymbol{x}}_2 \rightarrow \ \cdots \ \rightarrow {\boldsymbol{x}}_{k-1} \rightarrow {\boldsymbol{x}}_k$$ x 0 → x 1 → x 2 → ⋯ → x k - 1 → x k . Da selbst exakte Lösungsverfahren rundungsfehlerbehaftet sind und Eingabefehler einen weiteren Beitrag zu Ungenauigkeiten in den exakten Lösungen leisten, kann man mit den Ungenauigkeiten in der Näherungslösung $${\boldsymbol{x}}_k$$ x k gut leben.

Christian Karpfinger
Kapitel 72. Optimierung

Optimierungsprobleme sind vielfältiger Natur. Ob nun der Wunsch nach langen Akkulaufzeiten eines Laptops oder geringer Kraftstoffverbrauch eines Autos besteht, es werden stets Anforderungen an einzelne Bauteile gestellt: Minimiere oder maximiere Eigenschaften wie Gewicht, Größe, Leistung usw. Tatsächlich können wir uns auf Minimierungsprobleme beschränken, und ein Kriterium für ein Minimum für eine Funktion f in mehreren Variablen haben wir längst kennengelernt: In einer stationären Stelle $${\boldsymbol{x}}^*$$ x ∗ liegt dann ein Minimum vor, wenn die Hessematrix $$H_f({\boldsymbol{x}}^*)$$ H f ( x ∗ ) positiv definit ist. Wir wollen aber eine Minimalstelle finden, ohne die Nullstellen des Gradienten oder die Hessematrix zu bestimmen, da dies bei realistischen Problemen zu aufwendig ist.

Christian Karpfinger
Kapitel 73. Numerik gewöhnlicher Differentialgleichungen II

In Kap. 36 haben wir bereits die wesentlichen Verfahren zur numerischen Lösung gewöhnlicher Differentialgleichungen besprochen; die dort angegebenen Verfahren sind nämlich unverändert auch für Differentialgleichungssysteme anwendbar. Wir sprechen im vorliegenden Kapitel über Konvergenz und Konsistenz von Einschrittverfahren und weisen auf die Bedeutung von impliziten Verfahren zur Lösung steifer Differentialgleichungssysteme hin.

Christian Karpfinger
Kapitel 74. Fourierreihen – Berechnung der Fourierkoeffizienten

Es ist oftmals möglich, eine periodische Funktion f als Summe bzw. Reihe von Kosinus- und Sinusfunktionen darzustellen. Dabei kommt die Vorstellung zum Tragen, dass ein periodisches Signal, nämlich die Funktion f, als eine Überlagerung vieler harmonischer Schwingungen, nämlich von Kosinus- und Sinusfunktionen, betrachtet werden kann. Das Bestimmen der einzelnen harmonischen Schwingungen entspricht dabei einer Zerlegung des periodischen Signals in seine Grundschwingungen. Die Mathematik hinter dieser Zerlegung ist dabei das Berechnen der Fourierkoeffizienten zu den Grundschwingungen. Dahinter verbirgt sich eine Skalarproduktbildung mittels eines Integrals. Wir schildern diese Berechnung der Fourierkoeffizienten und stellen so periodische Funktionen aller Couleur als Überlagerungen harmonischer Schwingungen dar.

Christian Karpfinger
Kapitel 75. Fourierreihen – Hintergründe, Sätze und Anwendung

Wir betrachten wieder Funktionen $$f:\mathbb {R}\rightarrow \mathbb {C}$$ f : R → C mit den Eigenschaften (i) bis (iii) (siehe Abschn. 74.2) und schreiben hierfür wie bereits gewohnt kurz $$f \in C(T)$$ f ∈ C ( T ) . Jede Funktion $$f \in C(T)$$ f ∈ C ( T ) lässt sich in eine Fourierreihe entwickeln, d. h. $$\begin{aligned} f(x) \sim \frac{a_0}{2} + \sum _{k = 1}^\infty a_k \, \cos (kx) + b_k \, \sin (k x) = \sum _{k = -\infty }^\infty c_k \, \text {e}^{\mathrm{i}\, k x} \end{aligned}$$ f ( x ) ∼ a 0 2 + ∑ k = 1 ∞ a k cos ( k x ) + b k sin ( k x ) = ∑ k = - ∞ ∞ c k e i k x mit den Fourierkoeffizienten $$a_0, \, a_k, \, b_k$$ a 0 , a k , b k für $$k \in {\mathbb N}$$ k ∈ N bzw. $$c_k$$ c k für $$k \in {\mathbb {Z}}$$ k ∈ Z . In diesem Kapitel zeigen wir, worauf diese Entwicklung gründet. Außerdem geben wir zahlreiche nützliche Regeln und Sätze an, die weiterhelfen, die Fourierreihen zu f ähnlichen Funktionen zu ermitteln, wenn man schon die Fourierreihe von f kennt. Außerdem besprechen wir eine typische Anwendung von Fourierreihen zur Bestimmung partikulärer Lösungen von Differentialgleichungen.

Christian Karpfinger
Kapitel 76. Fouriertransformation I

Bei der Fourierreihenentwicklung haben wir eine stückweise stetige und monotone T-periodische Funktion f in eine Fourierreihe entwickelt und damit das periodische Signal f in eine Summe harmonischer Schwingungen mit diskreten Amplituden zerlegt. Die Fouriertransformation kann als eine Zerlegung eines nichtperiodischen Signals f in harmonische Schwingungen mit kontinuierlichem Amplitudenspektrum aufgefasst werden. Die erstaunlichen Anwendungen dieser Transformation behandeln wir im nächsten Kapitel. Im vorliegenden Kapitel erledigen wir die Rechenarbeiten: Wir transformieren Funktionen und betrachten auch die Möglichkeit der Rücktransformation. Aber im Hinblick auf die Anwendungen fassen wir die betrachteten Funktionen f als Funktionen in der Zeit t auf, wir werden von Zeitfunktionen sprechen.

Christian Karpfinger
Kapitel 77. Fouriertransformation II

Die Fouriertransformation bietet die Möglichkeit, partikuläre Lösungen linearer Differentialgleichungen zu bestimmen. Dabei wird eine Differentialgleichung durch Transformation in eine Gleichung überführt. Durch Lösen dieser Gleichung und Rücktransformation der Lösung erhält man eine gewünschte Lösung der ursprünglichen Differentialgleichung. Das wesentliche Hilfsmittel ist damit also die Rücktransformation, sprich die inverse Fouriertransformation. Dass das (direkte) Berechnen der inversen Fouriertransformierten einer Bildfunktion nicht ganz einfach ist, haben wir im letzten Kapitel bemerkt. Zum Glück ersparen uns die Regeln zur Fouriertransformation oftmals die direkte Berechnung der Rücktransformierten. Wir beginnen dieses Kapitel mit einem Überblick über die Regeln und Sätze zur Fouriertransformation.

Christian Karpfinger
Kapitel 78. Diskrete Fouriertransformation

Bei der diskreten Fouriertransformation werden die Fourierkoeffizienten einer $$2\pi $$ 2 π -periodischen Funktion, die selber nicht gegeben ist, deren Werte aber an diskreten Stellen bekannt sind, etwa durch ein Abtasten eines Signals, näherungsweise bestimmt. Man erhält so Näherungen für die Amplituden zu bestimmten Frequenzen eines Signals. In den Anwendungen spielt diese diskrete Fouriertransformation eine Rolle bei der Konstruktion digitaler Filter. Die bei der diskreten Fouriertransformation bestimmten Näherungswerte für die Fourierkoeffizienten einer Funktion, von der nur die Werte an diskreten Stellen bekannt sind, sind zugleich die Koeffizienten eines (interpolierenden) trigonometrischen Polynoms zu diesen diskreten Stützstellen. Wir behandeln diese trigonometrische Interpolation gleich mit und geben auch die reelle Version dazu an.

Christian Karpfinger
Kapitel 79. Die Laplacetransformation

Das Vorgehen bei der Laplacetransformation ist analog zu dem bei der Fouriertransformation: Zu einer laplacetransformierbaren Funktion $$f: [0,\infty ) \rightarrow {\mathbb C}$$ f : [ 0 , ∞ ) → C erklärt man eine neue Funktion $$F: D \rightarrow {\mathbb R}$$ F : D → R mit $$\begin{aligned} F(s) = \int _0^\infty f(t) \, \text {e}^{-s t} \, \text {d}t . \end{aligned}$$ F ( s ) = ∫ 0 ∞ f ( t ) e - s t d t . Für diese Laplacetransformation $$f \rightarrow F$$ f → F gelten zahlreiche Rechenregeln, die es wieder ermöglichen, aus der Kenntnis einiger Korrespondenzen auf viele weitere Korrespondenzen zu schließen. Und wieder transformiert sich eine lineare Differentialgleichung in f zu einer Gleichung in F; durch Lösen der Gleichung, d. h. durch das Bestimmen von F, erhält man nach Rücktransformation die Lösung f der anfangs betrachteten Differentialgleichung. Das geht analog mit linearen Differentialgleichungssystemen wie auch mit gewissen Integralgleichungen.

Christian Karpfinger
Kapitel 80. Holomorphe Funktionen

Wir betrachten komplexwertige Funktionen in einer komplexen Veränderlichen, also Funktionen der Form $$f: G \rightarrow {\mathbb C}$$ f : G → C mit $$G \subseteq {\mathbb C}$$ G ⊆ C ; wir betreiben also komplexe Analysis, Mathematiker sprechen von Funktionentheorie.Funktionentheorie Die Funktionentheorie hat wesentliche Anwendungen in der Ingenieurmathematik, etwa in der Elektrostatik oder Fluidmechanik. Wir entwickeln die Funktionentheorie soweit, um diese ingenieurwissenschaftlichen Anwendungen behandeln zu können. Dabei beginnen wir mit einigen Beispielen von komplexen Funktionen, und zielen dann schnell auf die Differenzierbarkeit komplexer Funktionen hinaus und gelangen damit zum wesentlichen Begriff der Funktionentheorie, der Holomorphie. Die holomorphen Funktionen bilden das zentrale Objekt der Funktionentheorie, insoweit sie für die Ingenieurwissenschaft benutzt wird.

Christian Karpfinger
Kapitel 81. Komplexe Integration

Die Definitionsbereiche von komplexen Funktionen sind Gebiete in $${\mathbb C}$$ C . Das Analogon der reellen Integration ist im Komplexen die Integration längs von Kurven im Definitionsgebiet. Die komplexe Integration einer Funktion f längs einer Kurve $$\gamma $$ γ verläuft analog zum reellen vektoriellen Kurvenintegral: $$\begin{aligned} \int \limits _\gamma f \text {d}s = \int \limits _a^b f(\gamma (t)) \, \dot{\gamma }(t) \text {d}t. \end{aligned}$$ ∫ γ f d s = ∫ a b f ( γ ( t ) ) γ ˙ ( t ) d t . Zur Berechnung des Wertes eines komplexen Kurvenintegrals kann wie im Reellen auch eine Stammfunktion von f nützlich sein, eine solche existiert, sofern die Funktion f holomorph ist.

Christian Karpfinger
Kapitel 82. Laurentreihen

Wir verallgemeinern Potenzreihen zu Laurentreihen, indem wir auch negative Exponenten zulassen, $$\begin{aligned} \sum _{k= 0}^\infty c_k (z-z_0)^k \ \longrightarrow \ \sum _{k= -\infty }^\infty c_k (z-z_0)^k. \end{aligned}$$ ∑ k = 0 ∞ c k ( z - z 0 ) k ⟶ ∑ k = - ∞ ∞ c k ( z - z 0 ) k . Das machen wir nicht willkürlich, es gibt einen engen Zusammenhang mit den dadurch beschriebenen Funktionen: Potenzreihen beschreiben Funktionen, die auf einem Kreis um $$z_0$$ z 0 holomorph sind, Laurentreihen beschreiben Funktionen, die auf einem Kreisring um $$z_0$$ z 0 holomorph sind. Mit der Laurentreihenentwicklung erhalten wir eine Reihendarstellung von Funktionen mit Singularitäten. Die wesentliche Anwendung dieser Entwicklung ist der Residuenkalkül, den wir im nächsten Kapitel vorstellen.

Christian Karpfinger
Kapitel 83. Der Residuenkalkül

Das Residuum ist eine komplexe Zahl, die einer Funktion in einer Singularität zugeordnet wird. Der Residuensatz liefert eine Formel zur Berechnung der Summe der Residuen einer komplexen Funktion innerhalb einer geschlossenen Kurve und bietet damit als Anwendung eine weitere Methode zur Berechnung komplexer Kurvenintegrale. Das wesentliche Hilfsmittel ist dabei die Laurentreihenentwicklung des Integranden. Eine weitere Anwendung des Residuensatzes ist die Bestimmung reeller Integrale, wo reelle Methoden oft versagen.

Christian Karpfinger
Kapitel 84. Konforme Abbildungen

Die wesentlichen Anwendungen der Funktionentheorie in den Ingenieurwissenschaften betreffen ebene Potenzialprobleme, also etwa ebene Randwertprobleme oder Probleme der Strömungsdynamik. Typischerweise transformiert man zur Lösung solcher Probleme den betrachteten Bereich mittels einer konformen Abbildung f auf einen Bereich, in dem das Problem leichter lösbar ist. Eine eventuelle Lösung des einfachen Problems wird dann per $$f^{-1}$$ f - 1 zurücktransformiert. Damit ist dann eine Lösung des ursprünglichen Problems gefunden. Bevor wir auf die Anwendungen im nächsten Kapitel zu sprechen kommen, betrachten wir konforme Abbildungen für sich. Eine konforme Abbildung ist dabei eine Abbildung, die Winkel und deren Orientierung beibehält. Besonders interessant sind dabei die Möbiustransformationen, die es erlauben, die wichtigsten Bereiche auf unkomplizierte Art aufeinander konform abzubilden.

Christian Karpfinger
Kapitel 85. Harmonische Funktionen und das Dirichlet’sche Randwertproblem

Beim Dirichlet’schen Randwertproblem wird eine Funktion $$u = u(x,y)$$ u = u ( x , y ) gesucht, die auf einem Gebiet D Lösung der Laplacegleichung $$\Delta u = u_{xx} + u_{yy} = 0$$ Δ u = u xx + u yy = 0 ist und auf dem Rand von D vorgegebene (Rand-)Werte annimmt. Die Lösungen der Laplacegleichung $$\Delta u = 0$$ Δ u = 0 sind die harmonischen Funktionen. Diese sind gerade Real- und Imaginärteil holomorpher Funktionen. Wir zeigen zunächst die Zusammenhänge zwischen holomorphen und harmonischen Funktionen auf und geben dann eine konkrete Lösung des Dirichlet’schen Randwertproblems auf dem Kreis an. Damit sind auch weitere solche Randwertprobleme gelöst: Kennt man nämlich die Lösung auf dem Einheitskreis, so kann man diese Lösung auch für andere Gebiete mittels konformer Abbildungen bestimmen.

Christian Karpfinger
Kapitel 86. Partielle Differentialgleichungen 1. Ordnung

Bei einer gewöhnlichen Differentialgleichung (gDGL) wird eine Funktion $$x=x(t)$$ x = x ( t ) in einer Variablen t gesucht, die eine Gleichung löst, in der die Funktion x und Ableitungen von x nach t erscheinen. Bei einer partiellen Differentialgleichung (pDGL) wird eine Funktion u in mehreren Variablen, üblicherweise $$u = u(x,t)$$ u = u ( x , t ) bzw. $$u = u(x,y)$$ u = u ( x , y ) oder $$u = u(x,y,z,t)$$ u = u ( x , y , z , t ) , gesucht, wobei u eine Gleichung erfüllt, die neben u auch partielle Ableitungen von u nach den verschiedenen Variablen enthält. Die Maxwell’schen Gleichungen, die Navier-Stokesgleichung, die Schrödingergleichung, ... das sind partielle Differentialgleichungen, denen ganze Wissenschaften zugrunde liegen. Neben diesen gibt es viele weitere partielle Differentialgleichungen, die bei allen möglichen Fragestellungen der Technik und Naturwissenschaften auftreten. Es ist sicher keine Übertreibung, zu behaupten, dass der weite Themenkreis partielle Differentialgleichungen zu den wichtigsten und fundamentalsten Gebieten der angewandten Mathematik gehört und in fast sämtlichen grundlegenden Fächern der ingenieur- und naturwissenschaftlichen Studiengängen Einzug hält. So wichtig und grundlegend das Gebiet ist, so undurchdringbar bzw. endlos erscheinen die Theorie und die Lösungsverfahren partieller Differentialgleichungen. Wir können im Rahmen dieses Buches das Thema nur knapp anschneiden und in gewisser Weise nur ein Sprungbrett bilden, um den Leser in ein Meer von partiellen Differentialgleichungen und möglichen Lösungsverfahren zu entlassen. Üblicherweise beginnt man das Thema partielle Differentialgleichungen mit einer Typeneinteilung oder Herleitungen. Wir weichen von dieser Tradition ab. Wir wollen mit einem positiven Signal das Thema beginnen und verschaffen uns in diesem ersten Kapitel Lösungsverfahren zu den einfachsten Typen partieller Differentialgleichungen. In der Praxis hat man es mit komplizierteren Gleichungen zu tun. Aber einige wesentliche Aspekte lernt man bereits bei diesen einfachen Typen.

Christian Karpfinger
Kapitel 87. Partielle Differentialgleichungen 2. Ordnung – Allgemeines

Die partiellen Differentialgleichungen 2. Ordnung sind jene, die für die Anwendungen wesentlich sind. Wir können hier nur einen winzig kleinen Einblick in die umfangreiche Theorie dieser Differentialgleichungen geben. Analytische Lösungsschemata, wie wir sie im letzten Kapitel zu den Gl. 1. Ordnung betrachtet haben, gibt es auch für Gl. 2. Ordnung. Nur sind diese erheblich komplizierter; wir verzichten auf diese Darstellungen und geben nur für spezielle Differentialgleichungen systematische Lösungsverfahren in den weiteren Kapiteln an. Um erst einmal eine gewisse Übersicht über die doch recht komplizierte Situation bei den Differentialgleichungen 2. Ordnung zu erhalten, führen wir im vorliegenden Kapitel einige Begriffe zur Typeneinteilung und Problemstellung wie auch zu Lösungsverfahren solcher Differentialgleichungen ein.

Christian Karpfinger
Kapitel 88. Die Laplace- bzw. Poissongleichung

Wir betrachten einige Aspekte der zweifellos zu den wichtigsten partiellen Differentialgleichungen gehörenden Laplace- bzw. Poissongleichung. Diese stationären Differentialgleichungen sind elliptisch. Sie beschreiben typischerweise eine (stationäre) Temperaturverteilung oder eine elektrostatische Ladungsverteilung in einem Körper und damit allgemeiner einen Gleichgewichtszustand.

Christian Karpfinger
Kapitel 89. Die Wärmeleitungsgleichung

Mit der Wärmeleitungsgleichung knöpfen wir uns nun einen typischen Vertreter einer parabolischen partiellen Differentialgleichung vor. Die Wärmeleitungsgleichung ist instationär und beschreibt den Zusammenhang zwischen der zeitlichen und der räumlichen Änderung der Temperatur an einem Ort in einem wärmeleitenden Körper Die Wärmeleitungsgleichung kann auch als Diffusionsgleichung gedeutet werden, dabei ist Wärme als Konzentration zu interpretieren. Die Lösung u beschreibt dann anstelle der Wärmeverteilung in einem wärmeleitenden Körper die Konzentrationsverteilung eines diffundierenden Stoffes.

Christian Karpfinger
Kapitel 90. Die Wellengleichung

Die Wellengleichung ist ein klassisches Beispiel einer hyperbolischen partiellen Differentialgleichung. Sie ist instationär und beschreibt Wellenphänomene oder Schwingungen.

Christian Karpfinger
Kapitel 91. Lösen von pDGLen mit Fourier- und Laplacetransformation

In den Kap. 77 und 79 wurden lineare (gewöhnliche) Differentialgleichungen bzw. Anfangswertprobleme mit linearen (gewöhnlichen) Differentialgleichungen mithilfe von Fourier- und Laplacetransformation gelöst. Hierbei machten wir uns die Tatsache zunutze, dass durch die Transformation aus einer Differentialgleichung eine algebraische Gleichung wird. Diese Gleichung ist dann meist einfach zu lösen, und die Rücktransformierte ist dann eine Lösung der ursprünglichen Differentialgleichung. Dieses Prinzip lässt sich auch auf partielle Differentialgleichungen erfolgreich anwenden: Aus einer partiellen Differentialgleichung wird dabei mittels Integraltransformation eine gewöhnliche Differentialgleichung. Diese ist dann mit den herkömmlichen Methoden zu lösen, eine Rücktransformation liefert dann eine Lösung der ursprünglichen partiellen Differentialgleichung. Im Allgemeinen erhält man Lösungsformeln für die betrachteten partiellen Differentialgleichung mit evtl. gegebenen Anfangsbedingungen.

Christian Karpfinger
Backmatter
Metadaten
Titel
Höhere Mathematik in Rezepten
verfasst von
Prof. Dr. Christian Karpfinger
Copyright-Jahr
2022
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-63305-2
Print ISBN
978-3-662-63304-5
DOI
https://doi.org/10.1007/978-3-662-63305-2

Premium Partner