Skip to main content
Top

2019 | Book

Numerik

Eine lebendige und gut verständliche Einführung mit vielen Beispielen

Authors: Prof. Dr. Andreas Meister, Prof. Dr. Thomas Sonar

Publisher: Springer Berlin Heidelberg

insite
SEARCH

About this book

Dieses vierfarbige Lehrbuch wendet sich an Studierende der Mathematik und benachbarter Studiengänge und bietet eine lebendige Einführung in die Numerik.

In der Numerischen Mathematik geht es um die zentralen Ideen zur Nutzung mathematischer Resultate im Kontext realitätsbezogener Anwendungen. Es geht um Konvergenzbeweise für Algorithmen, um den Einsatz von Funktionalanalysis zur Fehlerabschätzung oder zur Konstruktion „besserer“, d.h. genauerer und effizienterer Algorithmen, und vieles mehr. Diesen mathematischen Kern der Numerischen Mathematik arbeiten die Autoren heraus und präsentieren ihn den Lesern, die die Techniken der Numerischen Mathematik erlernen wollen, in einer ansprechenden Form.

Herausragende Merkmale sind:

durchgängig vierfarbiges Layout mit ca. 140 Abbildungen

prägnant formulierte Kerngedanken bilden die Abschnittsüberschriften

Selbsttests in kurzen Abständen ermöglichen Lernkontrollen während des Lesens

farbige Merkkästen heben das Wichtigste hervor

„Unter-der-Lupe“-Boxen zoomen in Beweise hinein, motivieren und erklären Details

„Hintergrund-und-Ausblick“-Boxen stellen Zusammenhänge zu anderen Gebieten und weiterführenden Themen her

Zusammenfassungen zu jedem Kapitel sowie Übersichtsboxen

mehr als 120 Verständnisfragen, Rechenaufgaben und Aufgaben zu Beweisen

Das Buch folgt einer heute fast klassisch zu nennenden Themenfolge: Interpolation und Approximation, Quadratur, Numerik linearer Gleichungssysteme, Eigenwertprobleme, Lineare Ausgleichsprobleme, Nichtlineare Gleichungen und Systeme sowie die Numerik gewöhnlicher Differentialgleichungen.

Die Inhalte dieses Buches basieren größtenteils auf dem Werk „Grundwissen Mathematikstudium – Höhere Analysis, Numerik und Stochastik“, werden aber wegen der curricularen Bedeutung hiermit in vollständig überarbeiteter Form als eigenständiges Werk veröffentlicht.

Table of Contents

Frontmatter
1. Mathematik – eine lebendige Wissenschaft
Kapitelzusammenfassung
Mit der Analysis und der Linearen Algebra werden im ersten Studienjahr klassische Grundlagen der Mathematik gelegt. Im Hinblick auf die moderne Entwicklung dieses Fachs sind heute weitere Aspekte ebenso maßgebend, die üblicherweise Gegenstand des zweiten und dritten Studienjahrs sind.
Hierzu gehört ganz wesentlich auch die in diesem Buch vorgestellte Numerische Mathematik ohne die eine modernen Maßstäben genügende Anwendung mathematischer Erkenntnisse undenkbar ist. Dabei wird, neben einer vollständigen Beweisführung, Wert auf Zusammenhänge, Hintergründe, Motivation und alternative Beweisideen gelegt. Damit wollen wir einen Weg weisen hin zu einem umfassenden Verständnis numerischer Aspekte der Mathematik.
Um das Konzept des vorliegenden Lehrbuchs nachvollziehbar zu machen, bieten wir den Lesern in diesem einleitenden Kapitel eine kurze Einführung in unsere Intention und die didaktischen Elemente.
Andreas Meister, Thomas Sonar
2. Warum Numerische Mathematik? – Modellierung, Simulation und Optimierung
Kapitelzusammenfassung
„Numerische Mathematik“ beginnt eigentlich schon im Altertum, als erste Algorithmen zur Berechnung der Quadratwurzel ersonnen wurden. Seit es Mathematik gibt, gibt es auch die Notwendigkeit des numerischen Rechnens, d. h. des Rechnens mit Zahlen. Numerische Mathematik heute ist die Mathematik der Näherungsverfahren, entweder weil eine exakte Berechnung (z. B. eines Integrals) unmöglich ist oder weil die exakte Berechnung so viel Zeit und Mühe beanspruchen würde, dass ein Näherungsalgorithmus notwendig wird. Etwa mit den ersten Logarithmentabellen im 17. Jahrhundert ergibt sich das Problem, in einer Tabelle zu interpolieren, und die Interpolation von Daten ist noch heute eine der Hauptaufgaben der Numerischen Mathematik. Das Wort interpolare kommt aus dem Lateinischen und bedeutet dort „auffrischen“, „umgestalten“, aber auch „verfälschen“. Im mathematischen Kontext bedeutet Interpolation, dass man eine Menge von Daten, z. B. Paare \((x_{i},f(x_{i})),i=1,\ldots,n\), so durch eine Funktion \(p\) verbindet, dass die Daten an den gegebenen Punkten erhalten werden, also in unserem Beispiel muss stets \(p(x_{i})=f(x_{i})\) für alle \(i=1,\ldots,n\) gelten. Die Differenzial- und Integralrechnung von Newton und Leibniz und der Ausbau dieser Theorie durch Leonhard Euler im 18. Jahrhundert verschaffen auch numerischen Methoden ganz neue Möglichkeiten. Analytisch unzugängliche Integrale können nun numerisch bestimmt werden. Carl Friedrich Gauß arbeitete zu Beginn des 19. Jahrhunderts an numerischen Methoden zur Berechnung von Lösungen linearer Gleichungssysteme – bis heute ebenfalls eine der Hauptaufgaben der Numerischen Mathematik. Die Untersuchung der seit dem 17. Jahrhundert verstärkt betrachteten gewöhnlichen und seit dem 18. Jahrhundert verstärkt in den Fokus rückenden partiellen Differenzialgleichungen macht im 19. Jahrhundert schnell klar, dass neue numerische Ansätze benötigt werden. Mit der Erfindung des elektronischen Computers im 20. Jahrhundert entfaltet die Numerik schließlich ihre ganze Wirksamkeit. Heute ist es für die Ausbildung jeder Mathematikerin und jedes Mathematikers unerlässlich, wenigstens die Grundzüge der Numerischen Mathematik zu verstehen. Dabei ist es gerade heute wichtig, klare Trennlinien zwischen „Numerischer Mathematik“ und Gebieten wie etwa dem „Wissenschaftlichen Rechnen“ zu ziehen. Es geht in der Numerik nicht darum, möglichst komplexe Probleme durch die Konstruktion von Algorithmen auf einen Rechner zu bringen und die so erzeugten Ergebnisse auszuwerten, sondern um die Mathematik, die benötigt wird, um die Algorithmen beurteilen zu können. Dabei spielen Begriffe wie „Konvergenz“, „Stabilität“, „Effizienz“ und „Genauigkeit“ eine große Rolle.
Andreas Meister, Thomas Sonar
3. Interpolation – Splines und mehr
Kapitelzusammenfassung
Die Bezeichnung „Interpolation“ stammt von dem lateinischen Wort interpolo, was so viel wie „neu herrichten“ oder „auffrischen“ bedeutet. In der Numerik versteht man unter Interpolation die Angabe einer Funktion, die durch vorgeschriebene diskrete Daten verläuft. Die Bezeichnung „Approximation“ stammt ebenfalls aus dem Lateinischen und kommt aus dem Wort proximus, was so viel wie „der Nächste“ bedeutet. Im Gegensatz zur Interpolation sucht man Funktionen, die nicht notwendig durch gegebene Datenpunkte verlaufen, sondern die Daten nur in einem zu spezifizierenden Sinn annähern.
Die Interpolation von gegebenen Daten gehört zu den wichtigsten Grundaufgaben der Numerik und ist mit Abstand deren älteste Disziplin. Bereits am Übergang vom 16. zum 17. Jahrhundert erfand der Engländer Thomas Harriot (ca. 1560–1621) erste Interpolationsalgorithmen, um in Tabellen Zwischenwerte bestimmen zu können. Wir behandeln hier die Interpolation mit Polynomen und trigonometrischen Polynomen und beschränken uns auf den eindimensionalen Fall. Die Interpolationstheorie in mehreren Dimensionen ist nach wie vor ein sehr aktives Feld der Mathematik und verlangt nach anderen Mitteln als der eindimensionale Fall. Bei der Interpolation werden gegebene Daten \((x_{i},f_{i}),i=0,\ldots,n\), durch eine Funktion \(p\) so verbunden, dass für alle \(i\) gilt: \(p(x_{i})=f_{i}\). Interpolation erlaubt also die Auswertung einer im Allgemeinen unbekannten Funktion \(f\) auch zwischen den bekannten Werten \((x_{i},f(x_{i}))\). Approximation bedeutet die Konstruktion einer Funktion \(p\), die \(f\) „möglichst gut“ wiedergibt. Dabei wird keine Rücksicht auf die exakte Wiedergabe von \(f\) an gewissen Stellen \(x_{i}\) genommen.
Heute sind die Techniken der Interpolation und Approximation aus der Mathematik und den Anwendungen nicht mehr wegzudenken. Die Formen von Autokarosserien werden mit mehrdimensionalen Splines beschrieben, Geologinnen und Geologen interpolieren seismische Daten zum Auffinden von Öl- und Gasfeldern und komplizierte Integrale werden numerisch gelöst, indem man die Integranden interpoliert.
Das Gebiet der Interpolation mit Polynomen ist nicht losgelöst von der Approximationstheorie zu sehen und hängt stark am Weierstraß’schen Approximationssatz, den wir zu Beginn beweisen werden. Will man dann Daten \((x_{i},y_{i}),i=0,\ldots n\) mit einem Polynom interpolieren, treten neben Existenz- und Eindeutigkeitsfragen auch Fragen nach der „Güte“ des Interpolationspolynoms zwischen den Daten auf. Wir werden eine sehr unbefriedigende Fehlerabschätzung herleiten, die man durch eine gewisse Wahl von Stützstellen \(x_{i}\) dramatisch verbessern kann. Hier kommen die nach Pafnuti Lwowitsch Tschebyschow (in englischer Transkription oft: Pafnuti Lvovich Chebyshev) benannten Tschebyschow-Polynome ins Spiel. Allerdings hat bereits 1914 Georg Faber gezeigt, dass es zu jeder Stützstellenverteilung eine stetige Funktion gibt, die vom Interpolationspolynom nicht gleichmäßig approximiert wird. Abhilfe schaffen hier die nach Dunham Jackson benannten Jackson-Sätze, die aber höhere Glattheit der zu interpolierenden Funktion voraussetzen.
Diese Erfahrungen mit den Problemen bei der Interpolation wird uns letztlich zu den Splines führen, bei denen man nur stückweise Polynome kleinen Grades berechnet.
Andreas Meister, Thomas Sonar
4. Quadratur – numerische Integrationsmethoden
Kapitelzusammenfassung
Neben der Interpolation ist die numerische Berechnung von Integralen, die „Quadratur“, eine weitere wichtige Grundaufgabe der Numerischen Mathematik und sogar älter als das Integral selbst. Schon Archimedes hat die Fläche unter Kurven berechnet, indem er die Fläche durch einfach zu berechnende Teilflächen dargestellt hat. In der modernen Mathematik gilt es, nicht nur elementar nicht berechenbare Integrale numerisch zugänglich zu machen, sondern auch Integrale mit schwierig zu berechnenden Stammfunktionen einfach und schnell anzunähern. Ein Beispiel für die erste Klasse von Integralen finden wir z. B. im Integral
$$\displaystyle\int\mathrm{e}^{-x^{2}}\,\mathrm{d}x,$$
das bei der Normalverteilung eine wichtige Rolle spielt. In der Nachrichtentechnik benötigt man die Integration der sogenannten Sinc-Funktion
$$\displaystyle\int\frac{\sin x}{x}\,\mathrm{d}x,$$
und auch dieses Integral ist nicht elementar integrierbar. Häufig benötigt man Fourierkoeffizienten, die als Integrale definiert sind, oder Fourier-Transformationen. Auch wenn man diese Integrale elementar integrieren könnte, ist in vielen Fällen der Aufwand so groß, dass man eine Quadraturmethode verwendet. Auch für gebrochen-rationale Funktionen mag der Aufwand bei der Integration durch Partialbruchzerlegung so groß sein, dass man mit einem numerischen Verfahren weitaus besser bedient ist.
Wie schon bei der Interpolation gibt es einen großen Unterschied zwischen eindimensionalen und mehrdimensionalen Integralen. Auf Rechtecken im Zweidimensionalen kann man sich noch mit Produktansätzen von eindimensionalen Quadraturformeln behelfen, aber schon die Integration auf Dreiecken ist nach wie vor ein weit offenes Forschungsfeld, von allgemeineren Integrationsgebieten ganz zu schweigen. Wir werden uns daher auf den eindimensionalen Fall beschränken.
Andreas Meister, Thomas Sonar
5. Numerik linearer Gleichungssysteme – Millionen von Variablen im Griff
Kapitelzusammenfassung
Eine große Vielfalt unterschiedlicher praxisrelevanter Problemstellungen führt in ihrer numerischen Umsetzung und Lösung auf die Betrachtung linearer Gleichungssysteme. Die schnelle Lösung dieser Systeme stellt dabei häufig den wesentlichen Schlüssel zur Entwicklung eines effizienten und robusten Gesamtverfahrens dar. Bei der Lösung linearer Gleichungssysteme unterscheiden wir direkte und iterative Verfahren. Direkte Algorithmen, die auf im Folgenden vorgestellten LR-, Cholesky- und QR-Zerlegungen beruhen, ermitteln bei Vernachlässigung von Rundungsfehlern und unter der Voraussetzung, hinreichend Speicherplatz zur Verfügung zu haben, die exakte Lösung des linearen Gleichungssystems in endlich vielen Schritten. Da die linearen Gleichungssysteme, wie bereits erwähnt, oftmals als Subprobleme innerhalb der numerischen Approximation umfassender Aufgabenstellung auftreten, ist der Nutzer allerdings häufig nicht an der exakten Lösung derartiger Systeme interessiert, da eine Fehlertoleranz in der Größenordnung der bereits zuvor vorgenommen Näherung ausreichend ist. Des Weiteren ist der Aufwand zur exakten Lösung in zahlreichen Fällen viel zu hoch und die auftretenden Rundungsfehler führen zudem gerade bei schlecht konditionierten Problemen oftmals zu unbrauchbaren Ergebnissen. Praxisrelevante Problemstellungen führen zudem in der Regel auf schwach besetzte Matrizen. Die Speicherung derartiger Matrizen wird erst durch die Vernachlässigung der Nullelemente möglich, die häufig über 99 Prozent der Matrixkoeffizienten darstellen. Bei direkten Verfahren können auch bei derartigen Matrizen vollbesetzte Zwischenmatrizen generiert werden, die den verfügbaren Speicherplatz überschreiten. Dagegen können Matrix-Vektor-Produkte, die innerhalb iterativer Verfahren die wesentlichen Operationen repräsentieren, bei schwach besetzten Matrizen sehr effizient berechnet werden, wenn die Struktur der Matrix geeignet berücksichtigt wird. Daher werden in der Praxis zumeist iterative Verfahren eingesetzt. Diese Algorithmen ermitteln sukzessive Näherungen an die gesuchte Lösung auf der Grundlage einer Iterationsvorschrift.
Andreas Meister, Thomas Sonar
6. Numerische Eigenwertberechnung – Einschließen und Approximieren
Kapitelzusammenfassung
Die in der Mechanik im Rahmen der linearen Elastizitätstheorie vorgenommene Modellierung von Brückenkonstruktionen führt auf ein Eigenwertproblem, bei dem die Brückenschwingung unter Kenntnis aller Eigenwerte und Eigenvektoren vollständig beschrieben werden kann. Generell charakterisieren die Eigenwerte sowohl die Eigenschaften der Lösung eines mathematischen Modells als auch das Konvergenzverhalten numerischer Methoden auf ganz zentrale Weise. So haben wir bereits bei der Analyse linearer Iterationsverfahren zur Lösung von Gleichungssystemen nachgewiesen, dass der Spektralradius als Maß für die Konvergenzgeschwindigkeit und Entscheidungskriterium zwischen Konvergenz und Divergenz fungiert. Bei derartigen Methoden sind wir folglich am Betrag des betragsmäßig größten Eigenwertes der Iterationsmatrix interessiert. Alle Eigenwerte und Eigenvektoren sind dagegen z. B. notwendig, um die Lösungsschar linearer Systeme gewöhnlicher Differenzialgleichungen angeben zu können. Gleiches gilt für die Lösung linearer hyperbolischer Systeme partieller Differenzialgleichungen. Hier kann der räumliche und zeitliche Lösungsverlauf mithilfe einer Eigenwertanalyse der Matrix des zugehörigen quasilineareren Systems beschrieben werden. Die Betrachtung verschiedenster gewöhnlicher und partieller Differenzialgleichungssysteme zeigt, dass viele Phänomene wie die Populationsdynamik von Lebewesen, die Ausbildung von Verdichtungsstößen, der Transport von Masse, Impuls und Energie und letztendlich sogar die Ausbreitungsgeschwindigkeit eines Tsunamis durch die Eigenwerte des zugrunde liegenden Modells respektive ihrem Verhältnis zueinander festgelegt sind.
Die Berechnung von Eigenwerten über die Nullstellenbestimmung des charakteristischen Polynoms ist bereits bei sehr kleinen Matrizen in der Regel nicht praktikabel. Nach der Vorstellung von Ansätzen zur ersten Lokalisierung von Eigenwerten werden wir uns im Folgenden mit zwei Verfahrensklassen zur näherungsweisen Bestimmung von Eigenwerten und Eigenvektoren befassen. Die erste Gruppe umfasst Methoden zur Vektoriteration, während die zweite Klasse stets auf einer Hauptachsentransformation der Matrix zur Überführung in Diagonal- oder obere Dreiecksgestalt beruht.
Andreas Meister, Thomas Sonar
7. Lineare Ausgleichsprobleme – im Mittel das Beste
Kapitelzusammenfassung
Im Kap. 5 haben wir uns der Lösung linearer Gleichungssysteme \(\boldsymbol{A}\boldsymbol{x}=\boldsymbol{b}\) mit quadratischer Matrix \(\boldsymbol{A}\) zugewandt. In diesem Kapitel werden wir Systeme betrachten, bei denen die Zeilenzahl \(m\) größer als die Spaltenzahl \(n\) ist. Demzufolge liegen mehr Bedingungen als Freiheitsgrade vor, sodass auch im Fall linear unabhängiger Spaltenvektoren keine Lösung des Problems existieren muss. Dennoch weisen derartige Aufgabenstellungen, die sich in der Literatur unter dem Begriff lineare Ausgleichsprobleme einordnen, einen großen Anwendungsbezug auf. Der Lösungsansatz im Kontext dieser Fragestellung liegt in der Betrachtung eines korrespondierenden Minimierungsproblems. Hierbei wird anstelle der Lösung des linearen Gleichungssystems die Suche nach dem Vektor \(\boldsymbol{x}\) vorgenommen, der den Abstand zwischen dem Vektor \(\boldsymbol{A}\boldsymbol{x}\) und der rechten Seite \(\boldsymbol{b}\) über den gesamten Raum \(\mathbb{R}^{n}\) im Sinne der euklidischen Norm, das heißt
$$\displaystyle\|\boldsymbol{A}\boldsymbol{x}-\boldsymbol{b}\|_{2}$$
minimiert. Für diese Problemstellung werden wir zunächst eine Analyse der generellen Lösbarkeit durchführen und anschließend unterschiedliche numerische Verfahren zur Berechnung der sogenannten Ausgleichslösung vorstellen. Glücklicherweise tritt bei den linearen Ausgleichsproblemen im Gegensatz zu den linearen Gleichungssystemen niemals der Fall ein, dass keine Lösung existiert. Lediglich die Eindeutigkeit der Lösung geht wie zu erwarten im Kontext linear abhängiger Spaltenvektoren innerhalb der vorliegenden Matrix verloren.
Andreas Meister, Thomas Sonar
8. Nichtlineare Gleichungen und Systeme – numerisch gelöst
Kapitelzusammenfassung
In der Schule lernt man eine explizite Formel zur Lösung quadratischer Gleichungen, die schon den alten Mesopotamiern etwa 1500 v. Chr. bekannt war. Der nächste Fortschritt kam allerdings erst im 16. Jahrhundert in Italien, als Nicolo Tartaglia und Gerolamo Cardano explizite Lösungsformeln für die Wurzeln einer kubischen Gleichung fanden. Kurz darauf wurden auch solche Lösungsformeln für Gleichungen vom Grad 4 gefunden, aber Polynomgleichungen vom Grad 5 widersetzten sich hartnäckig. Erst 1824 gelang dem jungen Niels Henrik Abel der Beweis, dass es eine Lösungsformel mit endlich vielen Wurzelausdrücken für die allgemeine Gleichung fünften Grades nicht geben kann. Die Galois-Theorie hat dann gezeigt, dass alle Polynomgleichungen ab Grad 5 im Allgemeinen nicht explizit aufgelöst werden können. Mit anderen Worten: Schon bei der Nullstellensuche bei einem Polynom von Grad 5 sind wir auf numerische Methoden angewiesen. Allerdings wollen wir gleich hier bemerken, dass die Nullstellenberechnung von Polynomen in der Praxis im Allgemeinen keine Aufgabe für Methoden dieses Kapitels ist, obwohl wir sie häufig als Beispiele verwenden! Die meisten Probleme zur Nullstellenbestimmung von Polynomen treten nämlich bei Eigenwertproblemen auf, bei denen man charakteristische Polynome behandeln muss. Daher wendet man besser gleich numerische Methoden zur Berechnung der Eigenwerte von Matrizen an.
Nichtlineare Gleichungen und Systeme treten in den Anwendungen sehr häufig auf, und zwar in allen Anwendungsfeldern: Beschreibung mechanischer Systeme, chemische Reaktionen, Optimierung von Produktionsprozessen usw. Besondere Aufregung hat in den letzten Jahrzehnten die Chaostheorie verursacht. Hierbei zeigt es sich, dass in einigen Fällen bei Iterationen erratisches Verhalten festzustellen ist. Wir wollen auch dieses Verhalten bei der Nullstellensuche untersuchen.
Ohne Zweifel kommt den Newton-Methoden heute eine besondere Bedeutung zu. Aus diesem Grund legen wir einen Schwerpunkt auf die Konvergenztheorie des klassischen Newton-Verfahrens, beschreiben aber auch Zugänge zu modernen Varianten. Allerdings ist es für das Verständnis gut, eine einfache Methode zur Hand zu haben, an der man auch komplizierte Zusammenhänge leicht einsehen kann. Dazu dienen uns das Bisektions- und das Sekantenverfahren, die wir im Detail untersuchen werden.
Andreas Meister, Thomas Sonar
9. Numerik gewöhnlicher Differenzialgleichungen – Schritt für Schritt zur Trajektorie
Kapitelzusammenfassung
Zahlreiche Bücher befassen sich mit der Lösung gewöhnlicher Differenzialgleichungen und deren Relevanz für die mathematische Beschreibung realer Phänomene. Es zeigte sich dabei auch, dass die analytische Lösung einer Differenzialgleichung respektive eines Systems von Differenzialgleichungen an spezielle Typen gebunden ist. Viele Anwendungsprobleme führen jedoch auf Gleichungen, die einer expliziten Lösung nicht mehr zugänglich sind. Diese Tatsache gilt dabei sowohl für den Fall, dass das mathematische Modell eine gewöhnliche Differenzialgleichung darstellt, als auch für die Betrachtung partieller Differenzialgleichungen. Letztere finden ihre Anwendungen in zahlreichen Bereichen wie der Ozeanographie, der Aerodynamik, der Wetterprognose, der Dynamik von Bauwerken und vielem mehr und sind aus unserer heutigen Welt nicht mehr wegzudenken. Die Lösung solcher aufwendigen Problemstellungen wird durch numerische Methoden vorgenommen. Innerhalb partieller Differenzialgleichungssysteme werden häufig sogenannte Linienmethoden eingesetzt, bei denen im ersten Schritt die räumlichen Ableitungen geeignet approximiert werden und anschließend ein System gewöhnlicher Differenzialgleichungen vorliegt, das durchaus eine Million unbekannte Größen aufweisen kann. Folglich sind die in diesem Abschnitt vorgestellten und analysierten Verfahren unabhängig von der Betrachtung gewöhnlicher oder partieller Differenzialgleichungen von zentraler Bedeutung.
Andreas Meister, Thomas Sonar
Backmatter
Metadata
Title
Numerik
Authors
Prof. Dr. Andreas Meister
Prof. Dr. Thomas Sonar
Copyright Year
2019
Publisher
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-58358-6
Print ISBN
978-3-662-58357-9
DOI
https://doi.org/10.1007/978-3-662-58358-6

Premium Partner