Skip to main content

2023 | Buch

Lineare Algebra: Eine anwendungsorientierte Einführung

Mathematische Grundlagen, praxisrelevante Methoden und technische Anwendungen

insite
SUCHEN

Über dieses Buch

Dieses Lehrbuch entwickelt die Konzepte und Werkzeuge der linearen Algebra zusammen mit anspruchsvollen und praxisrelevanten Anwendungen aus dem Ingenieurswesen. Dabei stellt es die Theorie soweit exakt dar, dass eine tragfähige Grundlage für die späteren Entwicklungen entsteht – die Umsetzung mit dem Computer wird aber ebenfalls explizit erläutert. Das Buch macht somit letztlich weiterführende Konzepte und ihre Anwendungen mit der gleichen geometrischen Intuition zugänglich, wie es bei elementaren Konzepten im ersten Semester üblich ist.

Der gaußsche Eliminationsalgorithmus etwa löst nicht nur Gleichungssysteme – wenn man die Darstellung als Tableau genügend weit entwickelt, kann man damit auch inverse Matrizen berechnen, die Lösungsmenge ablesen, feststellen, ob zwei Polynome einen gemeinsamen Teiler haben und jedes beliebige lineare Schnittproblem der Vektorgeometrie auf eine einheitliche Art mit einem einzigen Tableau lösen. Mit Matrizen kann man nicht nur Gleichungssysteme aufstellen und lösen, man kann damit auch optische Systeme modellieren, den größten gemeinsamen Teiler finden, unabhängige Zyklen für die Kirchhoff-Gleichungen berechnen oder mit Drehmatrizen die Quadraturamplitudenmodulation als Grundlage von Software Defined Radio verstehen.

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Einführung
Zusammenfassung
Dieses Kapitel gibt eine Inhaltsübersicht und einen Überblick über die behandelten Anwendungen als Motivation für das Studium der linearen Algebra. Es gibt außerdem einige Hinweise dazu, wie man lineare Algebra am effizientesten studieren kann.
Andreas Müller
Kapitel 2. Lineare Gleichungssysteme
Zusammenfassung
Das Lösen von linearen Gleichungssysteme ist eine der Grundaufgaben der linearen Algebra. Dieses Kapitel stellt den gaußschen Eliminationsalgorithmus als zentrales Werkzeug ein, welches verschiedenste Fragen über lineare Gleichungssysteme zu beantworten erlaubt. Er kann entscheiden, wie viele Lösungen ein Gleichungssystem hat, und kann die vollständige Lösungsmenge bestimmen. Er führt auch auf den wichtigen Begriff der linearen Abhängigkeit.
Andreas Müller
Kapitel 3. Matrizen und Vektoren
Zusammenfassung
Die Matrixnotation ermöglicht, die Theorie der linearen Gleichungssysteme von Kapitel 2 zu einem handlichen Kalkül zu vereinfachen. Matrizen können addiert, subtrahiert und multipliziert werden, sie bilden eine Algebra. Das Lösen von Gleichungssystemen führt auf die Matrixinversion.
Andreas Müller
Kapitel 4. Determinante
Zusammenfassung
Die Determinante wird zunächst als eine Kennzahl entwickelt, mit deren Hilfe sich sofort entscheiden lässt, ob eine Matrix regulär ist. Sie kann mit Hilfe des Gauß-Algorithmus bestimmt werden. Als vollständig antisymmetrische Funktion, die linear ist in allen Zeilen und Spalten, kann die Determinante aber auch rekursiv mit dem Entwicklungssatz bestimmt werden. Die algebraischen Eigenschaften der Determinante ermöglichen sogar, eine Lösungsformel für die Lösung eines linearen Gleichungssystems zu finden.
Andreas Müller
Kapitel 5. Polynome
Zusammenfassung
Die Addition von Polynomen kann als Vektoraddition geschrieben werden. Die Multiplikation von Polynomen führt auf die Faltung von Vektoren. Die Division mit Rest wie auch die Bestimmung des größten gemeinsamen Teilers zweier Polynome lässt sich auf den Gauß-Algorithmus reduzieren und damit leicht mit bestehender Software für lineare Gleichungssysteme ausführen. Polynome können aber auch durch Matrizen beschrieben werden. Dies ermöglicht, Eigenschaften von Matrizen in Eigenschaften von Polynomen zu übersetzen.
Andreas Müller
Kapitel 6. Affine Vektorgeometrie
Zusammenfassung
Die Sprache der Vektoren und Matrizen kann erfolgreich zur Lösung geometrischer Probleme in der Ebene oder im dreidimensionalen Raum verwendet werden. Die affine Vektorgeometrie befasst sich mit Eigenschaften von Punkten, Geraden und Ebenen ganz unabhängig von Längen- oder Winkelmessung. Sie ermöglicht, Koordinatensysteme zu definieren, in denen Geraden und Ebenen durch lineare Gleichungen beschrieben werden. Schnittmengen und Koordinatenumrechnungen können mit dem Gauß-Algorithmus bestimmt werden.
Andreas Müller
Kapitel 7. Skalarprodukt und Orthogonalität
Zusammenfassung
Längen von Vektoren und Winkel zwischen Vektoren können mit dem Skalarprodukt bestimmt werden. Rechte Winkel sind besonders einfach zu erkennen, orthogonale Vektoren haben verschwindendes Skalarprodukt. Der Normalenvektor auf eine Ebene oder Gerade ermöglicht eine neue Art von Ebenengleichung. Besonders praktisch sind Basen aus orthogonalen Basisvektoren mit Länge 1. In solchen orthonormierten Basen lassen sich Drehungen und andere, das Skalarprodukt erhaltende Transformationen mit sogenannten orthogonalen Matrizen beschreiben. Der Drehwinkel einer Drehmatrix kann mit Hilfe der Spur mit einer einfachen Formel berechnet werden. Das Skalarprodukt ist auch die Grundlage der wichtigen Methode der kleinsten Quadrate.
Andreas Müller
Kapitel 8. Flächeninhalt, Volumen und Orientierung
Zusammenfassung
Die Determinante ermöglicht, Flächeninhalte und Volumina zu berechnen. Auf Ebenen oder im dreidimensionalen Raum kann sie eine Orientierung definieren. Zusammen mit dem Skalarprodukt kann das Vektorprodukt konstruiert werden. Damit wird es besonders einfach, auf gegebene Vektoren orthogonale Vektoren zu finden. Die Rodrigues-Formel drückt Drehungen des dreidimensionalen Raumes mit Vektoroperationen aus. Die Algebra der Vektoren mit dem Vektorprodukt ist eine sogenannte Lie-Algebra, eine Struktur, die auch die Matrizenalgebra trägt. Drehmatrizen lassen sich damit auch durch einen einzigen Vektor beschreiben.
Andreas Müller
Kapitel 9. Transformationen
Zusammenfassung
Kern und Bild einer linearen Abbildung — Nullraum und Spaltenraum — Orthogonalkomplement. Das Volumen oder die Länge von Vektoren sind geometrische Eigenschaften, die von Abbildungen nicht verändert werden sollen. Solche Invarianten definieren eine Menge von Matrizen, die man eine Gruppe nennt. Die orthogonale Gruppe erhält das Skalarprodukt, die spezielle lineare Gruppe besteht aus den volumen- und orientierungserhaltenden Abbildungen.
Andreas Müller
Kapitel 10. Projektive Geometrie
Zusammenfassung
Kameras haben als eigentliche Universalsensoren viele Arten von spezialisierten Sensoren wie Lichtschranken oder Wärmesensoren abgelöst. Die Verarbeitung der Bilder erfordert mehr CPU-Aufwand, aber auch ein genaueres mathematisches Verständnis für die Abbildung durch ein Kameraobjektiv. In der bildenden Kunst ermöglicht die Zentralperspektive realistische Darstellungen. Die Abbildung bildet Geraden auf Geraden ab und kann daher auch mit Matrizen beschrieben werden. Zu diesem Zweck werden homogene Koordinaten eingeführt. Die Abbildungsmatrix kann in zwei Faktoren zerlegt werden. Der eine beschreibt die Eigenschaften der Kamera und des Objektivs, der andere hängt nur von der Position und Ausrichtung der Kamera im Raum ab.
Andreas Müller
Kapitel 11. Eigenwerte und Eigenvektoren
Zusammenfassung
Eigenvektoren sind Vektoren, die von einer Matrix nur gestreckt werden. Die Wirkung einer Matrix lässt sich besonders einfach verstehen, wenn sich eine Basis aus Eigenvektoren finden lässt. In einer solchen Basis hat die Matrix Diagonalform. Damit können auch leicht Potenzen einer Matrix berechnet werden und es wird möglich, Matrizen als Argumente transzendenter Funktionen wie zum Beispiel der Exponentialfunktion eA zu verwenden. Nicht jede Matrix lässt sich diagonalisieren, für symmetrische Matrizen lässt sich ein geometrisches Argument angeben, warum sie diagonalisierbar sind. Der Jacobi-Transformationsalgorithmus diagonalisiert eine symmetrische Matrix auf eine besonders intuitive Art und Weise.
Andreas Müller
Kapitel 12. Matrixzerlegungen
Zusammenfassung
Die Diagonalisierung von Kapitel 11 ermöglicht, viele Eigenschaften einer Matrix aus den Eigenwerten abzulesen. Leider ist die Diagonalisierung nur in Ausnahmefällen möglich. Viele Eigenschaften können aber auch aus einfacheren Zerlegungen einer Matrix in Faktoren abgeleitet werden. Umgekehrt lassen sich die früher entwickelten Algorithmen oft übersichtlicher als Matrixfaktorisierung darstellen. Der Gauß-Algorithmus führt auf die sogenannte LU-Zerlegung A=LU einer Matrix A in eine untere Dreiecksmatrix L und eine obere Dreiecksmatrix U. Für positiv definite, symmetrische Matrizen liefert die Cholesky-Zerlegung A=LLt eine Art Quadratwurzel, die sehr effizient berechnet werden kann. Die QR-Zerlegung A=QR einer Matrix eine orthogonale Matrix Q und eine obere Dreiecksmatrix R ermöglicht ein besseres geometrisches Verständnis einer Abbildung und ermöglicht, ein Least-Squares-Problem effizient zu lösen. Die Singulärwertzerlegung findet orthonormierte Basen von Urbild- und Bildraum einer linearen Abbildung und ist die Basis einer “bestmöglichen” Inversen einer Matrix, der sogenannten Pseudoinversen. Sogar der RREF-Algorithmus von Kapitel 2 lässt sich als Matrixfaktorisierung A=CR, die CR-Zerlegung schreiben, aus der sich Kern und Bild besonders leicht ablesen und Basen dafür finden lassen.
Andreas Müller
Kapitel 13. Normalformen
Zusammenfassung
Die Matrixfaktorisierungen von Kapitel 12 vertragen sich oft nicht gut mit dem Matrizenprodukt. Diagonalmatrizen wie in Kapitel 11 funktionieren sehr gut, aber nur spezielle Matrizen lassen sich in diese Form bringen. Die Jordan-Normalform einer Matrix stimmt für diagonalisierbare Marizen mit der Diagonalfrom überein. Sie ist aber für beliebige Matrizen definiert und ermöglicht, Potenzen zu berechnen.
Andreas Müller
Kapitel 14. Positive Matrizen
Zusammenfassung
Die Beschreibung elektrischer Netzwerke von Kapitel 2 und Kapitel 3 kann verallgemeinert und auf andere Arten von Graphen angewendet werden. Markov-Ketten beschreiben Wahrscheinlichkeitsprozesse mit Matrizen, die ausschließlich positive oder nichtnegative Einträge haben. Die Perron-Frobenius-Theorie beweist, dass der betragsgrößte Eigenwert einer solchen Matrix immer positiv ist und ein Eigenvektor mit lauter nichtnegativen Einträgen dazu gehört.
Andreas Müller
Kapitel 15. Tensoren
Zusammenfassung
Die Matrixnotation ist sehr erfolgreich bei der Beschreibung linearer Abhängigkeiten von einem einzelnen Vektor. Bei komplizierteren Abhängigkeiten, zum Beispiel von mehreren Vektoren, oder einer matrixwertigen linearen Abbildung, stößt sie an ihre Grenzen. Tensoren bieten hier einen Ausweg.
Andreas Müller
Backmatter
Metadaten
Titel
Lineare Algebra: Eine anwendungsorientierte Einführung
verfasst von
Andreas Müller
Copyright-Jahr
2023
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-67866-4
Print ISBN
978-3-662-67865-7
DOI
https://doi.org/10.1007/978-3-662-67866-4

Premium Partner