Skip to main content
main-content

Inhaltsverzeichnis

Frontmatter

1. Einleitung

Zusammenfassung
Die Parallele Numerik ist ein Teilgebiet der Numerischen Mathematik, das die Entwicklung schneller Verfahren und Algorithmen für numerische Aufgaben durch Nutzung paralleler Strukturen zum Gegenstand hat. Es werden Verfahren entwickelt, die zur Bildung voneinander unabhängiger Teilaufgaben führen sollen, die parallel zueinander und damit gleichzeitig ausgeführt werden können. Die Unabhängigkeit gestattet die Formulierung verteilter Anwendungen, in denen auf der Basis unabhängiger Teilaufgaben eine im jeweiligen Kontext sinnvolle Arbeitsteilung vorgenommen wird. Dadurch können Probleme behandelt werden, die ohne Arbeitsteilung aufgrund ihres Umfangs praktisch nicht lösbar wären. Diese Form der Arbeitsteilung kann aber auch zur Beschleunigung der Problemlösung genutzt werden.
Hartmut Schwandt

2. Einführende Beispiele und grundlegende Begriffe

Zusammenfassung
Mittels elementarer Beispiele werden zunächst aus algorithmischer Sicht der Begriff der Parallelität sowie andere grundlegende Begriffe und Konzepte eingeführt.
Hartmut Schwandt

3. Parallelität in Rechnerarchitekturen und Softwarewerkzeuge zur Beschreibung paralleler Strukturen

Zusammenfassung
Bei der Lösung numerischer Anwendungsprobleme mit parallelen Verfahren sind im Hinblick auf die zu nutzende Rechnerumgebung drei wesentliche Gesichtspunkte von Bedeutung:
  • • Parallelität in der Rechnerarchitektur
  • • Softwarewerkzeuge zur Beschreibung paralleler Strukturen
  • • Softwarewerkzeuge zur Leistungsmessung.
Hartmut Schwandt

4. Basisalgorithmen der linearen Algebra

Zusammenfassung
Die Basisalgorithmen der linearen Algebra bilden die Elementarbausteine vieler numerischer Algorithmen. Die Effizienz dieser Algorithmen ist daher von entscheidender Bedeutung für Vielzahl numerischer Anwendungen. Ein Maximum an Optimierung ist jedoch nur unter bestmöglicher Ausnutzung aller relevanten Merkmale der jeweils verwendeten Hardware zu erreichen. In der Konsequenz erhält man meist prozessor- oder architekturspezifische Algorithmen, die kaum in einer höheren Programmiersprache zu realisieren sind, sondern eher eine Assembler-Programmierung erfordern. Um dem daraus resultierenden Mangel an Portabilität zu begegnen, hat sich vor einigen Jahren die BLAS-Initiative mit dem Ziel einer praxisorientierten Standardisierung formiert (Abschnitt 3.2.6). Die Basisalgorithmen der linearen Algebra weisen natürliche parallele Strukturen auf, die es gestatten, anhand sehr einfacher Aufgabenstellungen zumindest grundlegende Techniken zur Parallelisierung, Vektorisierung und Optimierung einzuführen. Die Basisalgorithmen lassen sich in Anlehnung an die Systematik der BLAS-Routinen entsprechend ihrer Komplexität hierarchisch in mehrere Gruppen gliedern:
  • • Vektor-Vektor-Operationen
  • • Matrix-Vektor-Operationen
  • • Matrix-Matrix-Operationen.
Hartmut Schwandt

5. Lineare Gleichungssysteme

Zusammenfassung
Die Lösung linearer Gleichungssysteme gehört zu den am häufigsten auftretenden Aufgabenstellungen der Numerischen Mathematik. Ohne Anspruch auf Vollständigkeit beschränken wir uns auf die Beschreibung von parallelen Verfahren und Algorithmen für einige gängige Aufgabenstellungen. Wir unterscheiden
  • • direkte Verfahren
  • • iterative Verfahren
für Systeme mit folgenden Typen von Koeffizientenmatrizen:
  • • vollbesetzte Matrizen
  • • dünnbesetzte Matrizen speziell
  • • Tridiagonalmatrizen
  • • Bandmatrizen
  • • Blockmatrizen
  • • Blocktridiagonalmatrizen
  • • Dreiecksmatrizen.
Hartmut Schwandt

6. Schnelle Fourier-Transformation

Zusammenfassung
Stellvertretend für Integral-Transformationen wie die Fourier-, die Laplace- oder die Rader-Transformation betrachten wir Algorithmen für die diskrete Form der bekanntesten Transformation, der Fourier-Transformation.
Hartmut Schwandt

7. Gebietszerlegung

Zusammenfassung
Bei der Entwicklung paralleler Algorithmen lässt sich eine ausreichende Granularität der Teilaufgaben, insbesondere zur Überdeckung des auf Parallelrechnern mit verteiltem Speicher in vielen Fällen erheblichen Kommunikationsaufwandes durch einen hinreichend umfangreichen „Rechenaufwand“, am besten erreichen, wenn parallele Strukturen frühzeitig, das heißt auf einer möglichst hohen Ebene der Problemlösung, geschaffen werden. Im Kapitel 5 wurden (parallele) Lösungsverfahren für unterschiedliche Typen linearer Gleichungssysteme hergeleitet. Dabei hat sich gezeigt, etwa im Falle der Schnellen Direkten Löser, dass diese Ebene der Parallelisierung für Parallelrechner mit verteiltem Speicher nicht immer ausreichend ist. Gleichungssysteme stellen eine bereits sehr konkrete Ebene der mathematischen Problemlösung dar. Im Falle der numerischen Lösung partieller Differentialgleichungen sind sie das Resultat der Diskretisierung eines kontinuierlichen Problems durch Anwendung beispielsweise eines Differenzen-, Finite-Elemente- oder Finite-Volumen-Verfahrens. In diesem Abschnitt stellen wir eine Vorgehensweise vor, in der die Parallelisierung grundsätzlich auf der Ebene des kontinuierlichen Problems, gegebenenfalls sogar schon während der Modellbildung vorgenommen wird. Das Prinzip der Gebietszerlegung wurde zunächst zur Lösung linearer elliptischer partieller Randwertprobleme eingeführt, später aber auch vielfach bei der Behandlung parabolischer und hyperbolischer Probleme sowie für nichtlineare und zeitabhängige Aufgaben eingesetzt.
Hartmut Schwandt

Backmatter

Weitere Informationen