Skip to main content
main-content

Inhaltsverzeichnis

Frontmatter

1. Die Welt des Wissenschaftlichen Rechnens

Zusammenfassung
Die vielen tausend Rechner, die inzwischen weltweit ihre Arbeit verrichten, bewältigen eine verwirrende und ständig wachsende Vielfalt von Aufgaben: sie stellen Rechnungen aus und erledigen die Bestandskontrollen für Industrie und Verwaltung, leisten Buchungsdienste für Luftlinien und ähnliche Einrichtungen, bewerkstelligen in bescheidenem Rahmen Übersetzungen natürlicher Sprachen wie Russisch oder Englisch, überwachen Produktionsprozesse, usw. usf. Eine ihrer frühesten Aufgaben - und auch heute noch immer eine der umfangreichsten - bestand darin, Probleme aus Wissenschaft und Technik zu lösen, genauer: Lösungen für mathematische Modelle physikalischer Sachverhalte bereitzustellen. Die Verfahren, die solche Lösungen liefern, sind Bestandteil des Gebietes, das man gemeinhin Wissenschaftliches Rechnen nennt, und der Gebrauch dieser Verfahren wird, sofern er tieferen Einblick in die wissenschaftlichen oder ingenieurtechnischen Probleme verschafft, rechnerorientierte Wissenschaft oder rechnerorientierte Ingenieurwissenschaft genannt.
Gene Golub, James M. Ortega

2. Lineare Algebra

Zusammenfassung
Die lineare Algebra (manchmal auch Matrizentheorie genannt) ist ein wichtiges Hilfsmittel in zahlreichen Bereichen des Wissenschaftlichen Rechnens, und wir stellen in diesem Kapitel einige der grundlegenden Resultate bereit, die in diesem Buch im weiteren verwendet werden.
Gene Golub, James M. Ortega

3. Parallel- und Vektorrechnen

Zusammenfassung
Anfang der siebziger Jahre erschienen die ersten Rechner auf dem Markt, die aus einer Anzahl getrennter Prozessoren bestanden, die parallel zueinander arbeiten konnten oder über Hardwareinstruktionen für Vektoroperationen verfügten. Den zuerst genannten Rechnertyp werden wir im folgenden als Parallelrechner, den zuletzt genannten als Vektorrechner bezeichnen.
Gene Golub, James M. Ortega

4. Approximation mit Polynomen

Zusammenfassung
Es gibt viele Gründe, um eine gegebene Funktion durch eine einfache Funktion, wie etwa ein Polynom, zu approximieren, einige werden wir in den späteren Kapiteln erörtern. Ein Vorteil in der Verwendung von Polynomen liegt darin, daß sie leicht mit Hilfe der üblichen Rechneroperationen wie Addition (oder Subtraktion) und Multiplikation ausgewertet werden können. Auch ist ein Polynom einfach zu integrieren und zu differenzieren, um Approximationen für das Integral oder die Ableitung der ursprünglichen Funktion zu erhalten. Die Integration wird weiter in Abschnitt 5.1 behandelt. Ein Nachteil der Approximation durch ein Polynom p ist, daß |p(x)| ∞ für x → ∞ geht, so daß eine Funktion, die für |x| ∞ beschränkt ist, für große |x| nicht approximiert werden kann. (Solche Funktionen können manchmal durch eine rationale Funktion, die der Quotient zweier Polynome ist, approximiert werden.) In vielen Fällen weist die zu approximierende Funktion Eigenschaften auf, wie positiv oder monoton zu sein, die die approximierende Funktion ebenfalls besitzen soll. Dadurch werden Einschränkungen auferlegt, die das Approximationsproblem sehr viel schwieriger machen, und wiederum können Polynome nicht geeignet sein.
Gene Golub, James M. Ortega

5. Kontinuierliche Probleme, diskretisiert gelöst

Zusammenfassung
Unter einem „kontinuierlichen Problem“ verstehen wir eins, das Werte aus einem ganzen Intervall, oder allgemeiner, aus einem ganzen Gebiet eines höherdimensionalen Raums verwendet.
Gene Golub, James M. Ortega

6. Direkte Lösung linearer Gleichungen

Zusammenfassung
In den vorangehenden Kapiteln sahen wir, daß eine Vielzahl von Problemen schließlich darauf führt, lineare Gleichungssysteme Ax = b zu lösen. Ein entscheidender Gesichtspunkt bei der Lösung solcher Systeme ist die Struktur der Matrix A. Bei manchen Problemen, beispielsweise Ausgleichsproblemen, kann die Matrix A vollbesetzt sein, das heißt nur relativ wenige Elemente sind gleich Null. Andererseits sahen wir bei gewissen Zweipunkt-Randwertproblemen, daß A tridiagonal war, und bei Randwertproblemen für partielle Differentialgleichungen war A groß und sehr dünn besetzt. Generell muß den Nullelementen in der Matrix A bei der numerischen Lösung soweit wie möglich Rechnung getragen werden, um effiziente Algorithmen zu erhalten.
Gene Golub, James M. Ortega

7. Direkte parallele Verfahren

Zusammenfassung
In diesem Kapitel betrachten wir die Implementierung der in Kapitel 6 vorgestellten Verfahren zur Lösung der Gleichung Ax = b auf Parallel- und Vektorrechnern. In diesem und dem nächsten Abschnitt nehmen wir an, daß A eine vollbesetzte Matrix sei. Um die jeweils betrachtete Rechnerarchitektur effizient nutzen zu können, sind oft unterschiedliche Varianten der Algorithmen erforderlich. Hierzu untersuchen wir in Abschnitt 7.2 einige Beispiele. In Abschnitt 7.3 behandeln wir Systeme mit Bandmatrizen.
Gene Golub, James M. Ortega

8. Iterative Verfahren

Zusammenfassung
Kapitel 6 hat gezeigt, daß die Anwendung des Gaußschen Eliminationsverfahrens auf große dünnbesetzte Systeme, wie sie etwa bei der Diskretisierung der Poisson-Gleichung entstehen, zur Auffüllung der Matrix mit zusätzlichen nichtverschwindenden Elemente und damit zu einer erhöhten arithmetischen Komplexität und einem erhöhten Speicherplatzbedarf führen. Alternativ lassen sich iterative Verfahren anwenden. Im allgemeinen benötigen diese Verfahren bedeutend weniger Speicherplatz als direkte Verfahren und können, abhängig vom Problem und vom Verfahren, schneller sein. Meist besitzen sie auch bessere Parallelisierungs- und Vektorisierungseigenschaften. In diesem Kapitel betrachten wir iterative Verfahren, die auf dem Prinzip der „Relaxation“ basieren. Einige dieser Verfahren sollten in der Praxis nicht verwendet werden. Sie bieten jedoch einen nützlichen Rahmen für die Einführung anderer iterativer Verfahren und werden auch als Teil der ausgefeilteren Mehrgitterverfahren und Verfahren der konjugierten Gradienten verwendet, die in Abschnitt 8.3 und Kapitel 9 diskutiert werden.
Gene Golub, James M. Ortega

9. Verfahren der konjugierten Gradienten

Zusammenfassung
Eine große Anzahl von iterativen Verfahren zur Lösung linearer Gleichungssysteme können als Minimierungsverfahren abgeleitet werden. Für symmetrische, positiv definite Matrizen A hat die quadratische Form
$$ q\left( x \right) = \frac{1}{2}{x^T}Ax - {x^T}b + c$$
(9.1.1)
die Lösung von Ax = b als eindeutig bestimmtes Minimum (Aufgabe 9.1.1). Daher sind Verfahren zur Minimierung von (9.1.1) auch Verfahren zur Lösung von Ax = b.
Gene Golub, James M. Ortega

Backmatter

Weitere Informationen