Skip to main content

2023 | Buch

Mathematik verstehen und anwenden: Differenzialgleichungen, Fourier- und Vektoranalysis, Laplace-Transformation und Stochastik

verfasst von: Steffen Goebbels, Stefan Ritter

Verlag: Springer Berlin Heidelberg

insite
SUCHEN

Über dieses Buch

Basierend auf Grundkenntnissen aus der Schulzeit oder aus dem ersten Band des Gesamtwerks „Mathematik verstehen und anwenden“ führt dieser zweite Band in die Vektoranalysis, in das Gebiet der Differenzialgleichungen und in die Fourier-Analysis einschließlich der Laplace-Transformation ein und beinhaltet außerdem eine Einführung in die Wahrscheinlichkeitsrechnung und Statistik. Damit er unabhängig vom ersten Band gelesen werden kann, beginnt er mit einer kurzen Zusammenfassung der wichtigsten Begriffe und Ergebnisse der Differenzial- und Integralrechnung sowie der Linearen Algebra.

Zielgruppe sind Studierende der Ingenieur- und Naturwissenschaften an Fachhochschulen und Universitäten. Trotz der verständlichen Darstellung für ein Bachelor-Studium geht die mathematische Exaktheit nicht verloren. Hintergrundinformationen und Beweise ergänzen die sehr umfangreiche Stoffauswahl und bieten Anknüpfungspunkte für ein Masterstudium. Daneben erleichtern sie auch den Einstieg in Spezialvorlesungen der Mathematik wie beispielsweise die Numerik, die Funktionalanalysis und insbesondere die Fourier-Analysis.

In der vierten Auflage wurden viele Anwendungsbeispiele ergänzt und der Text grundlegend überarbeitet.

Stimmen zur ersten Auflage:

„Sowohl mathematisch exakt als auch äußerst anschaulich. Eine echte Bereicherung der großen Auswahl an Büchern zum Thema Ingenieurmathematik.“
Prof. Dr. Andreas Gessinger, Rheinische Fachhochschule Köln

„Der Spagat zwischen Verständlichkeit und mathematischer Tiefe ist hervorragend gelungen. Eine breite Palette von praxisorientierten Beispielen wirkt motivationsfördernd.“
Prof. Dr. Helga Tecklenburg, Hochschule für Technik, Wirtschaft und Kultur Leipzig

Inhaltsverzeichnis

Frontmatter

Funktionen mit mehreren Variablen

Frontmatter
Kapitel 1. Differenzialrechnung für multivariate Funktionen
Zusammenfassung
In diesem ersten Kapitel werden zunächst Folgen von Vektoren im n-dimensionalen Anschauungsraum betrachtet. Ihr möglicher Grenzwert wird koordinatenweise berechnet. Dann sehen wir uns Funktionen mit Definitionsbereich in diesem n-dimensionalen Raum an, also Funktionen mit n Variablen. Wir übertragen den Grenzwertbegriff (auch unter Verwendung der zuvor diskutierten Folgen) und definieren Stetigkeit. Dann wenden wir uns den Ableitungen zu. Die Grundidee besteht darin, jeweils nach einer Variable abzuleiten, wobei alle anderen Variablen als Konstanten interpretiert werden. Diese partiellen Ableitungen können dann mit den bekannten Ableitungsregeln berechnet werden. Allerdings reicht die Existenz von partiellen Ableitungen noch nicht aus, um einen Ableitungsbegriff zu erhalten, der die gleichen Eigenschaften wie die bekannte Ableitung einer reellen Funktion einer Variable hat. Man muss zusätzlich sicherstellen, dass durch die partiellen Ableitungen eine Tangential- (Hyper-) Ebene analog zur Tangenten bei einer Variable gegeben ist. Das führt zum Begriff des totalen Differenzials. Auch Funktionen mit mehreren Variablen können mit dem Satz von Taylor durch Polynome angenähert werden. Eine erste Anwendung betrachten wir am Ende des Kapitels mit der Fehlerrechnung, eine weitere folgt im nächsten Kapitel mit der Bestimmung von Extremwerten.
Steffen Goebbels, Stefan Ritter
Kapitel 2. Extremwertrechnung
Zusammenfassung
Hier beschäftigen wir uns mit Extremwerten einer reellwertigen Funktion, die mehrere reelle Variablen hat. Bei echt-vektorwertigen Funktionen kann man die Funktionswerte nicht der Größe nach vergleichen, so dass man auch nicht nach Extremwerten suchen kann. Zunächst übertragen wir die bekannte notwendige Bedingung „Ableitung gleich null“ für lokale Extrema unter Verwendung partieller Ableitungen. Dann leiten wir auch ein Gegenstück der hinreichenden Bedingung „Ableitung gleich null und zweite ungleich null“ her. Das ist gar nicht so einfach, da es viele Möglichkeiten gibt, zweimal hintereinander nach gleichen oder unterschiedlichen Variablen abzuleiten. Wir werden uns daher mit Eigenschaften der Hesse-Matrix beschäftigen, in der zweite partielle Ableitungen stehen. In vielen praktischen Anwendungen und in Naturgesetzen sucht man Extrema unter zusätzlichen Nebenbedingungen. Mit dem Satz über die Lagrange-Multiplikatoren lassen sich dazu notwendige Bedingungen über erste partielle Ableitungen angeben. Ebenfalls mit Nebenbedingungen beschäftigt sich die lineare Optimierung. Allerdings werden hier (globale) Optima nicht mittels Differenzialrechnung, sondern über den Simplex-Algorithmus mit Gauß-Umformungen eines unterbestimmten Gleichungssystems gefunden. Wir beschäftigen uns auch mit gemischt-ganzzahligen linearen Problemen, bei denen einige oder alle Variablen nur gewisse ganzzahlige Werte annehmen dürfen. Dazu betrachten wir Beispiele aus der kombinatorischen Optimierung und können z. B. ein Sudoku-Rätsel lösen.
Steffen Goebbels, Stefan Ritter
Kapitel 3. Integralrechnung mit mehreren Variablen
Zusammenfassung
Während wir bislang mit Integralen den Inhalt von Flächen unter Funktionsgraphen bestimmt haben, berechnen wir nun das Volumen von Körpern in höheren Raumdimensionen. Auch wenn es unsere Vorstellung sprengt, so erlauben wir mehr als zwei Variablen. Sehr angenehm ist, dass das bislang diskutierte Integral nicht nur der Spezialfall für eine Variable ist, sondern sich die Berechnung von Integralen für Funktionen mit vielen Variablen oft auch darauf zurückführen lässt (Satz von Fubini). Eine Herausforderung sind Integrationsbereiche, die nicht rechteckig oder quaderförmig sind. Hier müssen die Ränder des Bereichs beschrieben werden. In Verbindung mit dem Satz von Fubini funktioniert die Integration gut bei sogenannten Normalbereichen, bei denen die Integrationsgrenzen über Funktionen beschrieben werden können. Daneben betrachten wir aber auch die Substitutionsregel, mit der z. B. kugelförmige Integrationsbereiche zu quaderförmigen werden können. Am Ende des Kapitels verallgemeinern wir das Riemann-Integral zum Lebesgue-Integral. Das lässt sich zwar nicht leichter berechnen, ist aber für wesentlich mehr Funktionen erklärt als das Riemann-Integral, so dass es z. B. benötigt wird, wenn gewisse Funktionengrenzwerte integrierbar sein müssen. Das wird bei den Sobolev-Räumen ausgenutzt. Dabei handelt es sich um Funktionenräume, die beispielsweise bei der Lösung von Differenzialgleichungen eingesetzt werden und die zum Abschluss des Kapitels kurz definiert werden.
Steffen Goebbels, Stefan Ritter
Kapitel 4. Vektoranalysis
Zusammenfassung
In der Physik hat man es häufig mit Feldern zu tun. Ein Feld ordnet einem Punkt des Raums einen Wert zu, ist also eine Funktion. Der zugeordnete Wert kann eine reelle Zahl sein (z. B. beim elektrischen Potenzial). Man spricht dann von einem Skalarfeld. Der Wert kann aber auch ein Vektor sein, der z. B. eine Kraft beschreibt, die auf eine elektrische Ladung oder einen Körper an der entsprechenden Stelle wirkt. In diesem Fall spricht man von einem Vektorfeld. In einem solchen Vektorfeld kann es Quellen, Senken und Wirbel geben. Diese anschaulichen Phänomene lassen sich mit partiellen Ableitungen beschreiben. Die Arbeit, die verrichtet werden muss, um einen Körper auf einem Weg durch ein Gravitationsfeld zu bewegen, wird über ein sogenanntes Kurvenintegral berechnet. Daneben sehen wir uns auch Oberflächen- und Flussintegrale an, wie sie beispielsweise bei den Maxwell‘schen Gleichungen der Elektrotechnik verwendet werden. Ähnlich wie beim Fundamentalsatz der Differenzial- und Integralrechnung lassen sich einige der in diesem Kapitel betrachtete Integrale durch Werte auf der Randkurve oder Randfläche des Integrationsbereichs ausdrücken. Das ist Gegenstand der Integralsätze von Green, Gauß und Stokes, die wir auf die Maxwell‘schen Gleichungen anwenden.
Steffen Goebbels, Stefan Ritter
Kapitel 5. Aufgaben zu Teil I
Zusammenfassung
In Kapitel 5 finden Sie Aufgaben zu Teil I mit online bereitgestellten Lösungen.
Steffen Goebbels, Stefan Ritter

Differenzialgleichungen

Frontmatter
Kapitel 6. Differenzialgleichungen und ihre Lösungen
Zusammenfassung
In diesem Kapitel geht es um gewöhnliche Differenzialgleichungen: Gesucht sind Funktionen einer Variable, die eine Gleichung erfüllen, in der die Funktion, ihre erste Ableitung (Differenzialgleichung erster Ordnung) und gegebenenfalls auch höhere Ableitungen (Differenzialgleichung höherer Ordnung) vorkommen. Wir beschäftigen uns mit der Existenz von Lösungen und lernen dabei Näherungsverfahren kennen. Für die in der Praxis sehr häufig vorkommenden linearen Differenzialgleichungen erster Ordnung leiten wir Lösungsformeln her. Dabei benutzen wir die Techniken „Trennung der Variablen“ und „Variation der Konstanten“, die auch für andere Gleichungstypen funktionieren. Danach werden weitere Lösungstechniken für einige Typen von nicht-linearen Differenzialgleichungen erster Ordnung besprochen.
Steffen Goebbels, Stefan Ritter
Kapitel 7. Lineare Differenzialgleichungssysteme
Zusammenfassung
In diesem Kapitel wird ein Lösungsverfahren für lineare Differenzialgleichungssysteme erster Ordnung mit konstanten Koeffizienten ausgehend von einer einfachen Aufgabenstellung aus der Elektrotechnik betrachtet. Es sind also mehrere Funktionen gesucht, die mehrere Gleichungen gemeinsam erfüllen. Die Idee dabei ist, Eigenvektoren und Eigenwerte mit den Eigenschaften der Exponentialfunktion zu verbinden.
Steffen Goebbels, Stefan Ritter
Kapitel 8. Lineare Differenzialgleichungen höherer Ordnung mit konstanten Koeffizienten
Zusammenfassung
Wir kehren hier wieder zurück zu einer einzelnen Differenzialgleichung. Während wir bislang nur Ableitungen erster Ordnung betrachtet haben, sehen wir uns nun lineare Differenzialgleichungen höherer Ordnung mit konstanten Koeffizienten an. Diese Gleichungen lösen wir über ein lineares Differenzialgleichungssystem, das durch die Einführung von Hilfsfunktionen entsteht. Dabei erhalten wir einen einfach anzuwendenden Lösungsansatz für homogene Differenzialgleichungen über die Nullstellen eines Polynoms. Für inhomogene Gleichungen betrachten wir mit einem „Faltungsintegral“ und dem „Ansatz vom Typ der rechten Seite“ zwei darauf aufbauende Methoden. Eine Anwendung ist die für Ingenieure wichtige Schwingungsgleichung.
Steffen Goebbels, Stefan Ritter
Kapitel 9. Partielle Differenzialgleichungen, Finite-Elemente ∗
Zusammenfassung
Nachdem wir bislang mit Differenzialgleichungen nur Funktionen mit einer Variable gesucht haben, soll es in diesem Kapitel um Funktionen mehrerer Variablen gehen. Daher kommen in den Differenzialgleichungen partielle Ableitungen vor. Als erstes Beispiel einer partiellen Differenzialgleichung betrachten wir die Wellengleichung. Ihre Lösungen motivieren Fourier-Reihen, die im nächsten Teil des Buchs eingeführt werden. In den folgenden Unterkapiteln schauen wir uns allgemeiner partielle Differenzialgleichungen zweiter Ordnung an. Die darunterfallenden elliptischen Gleichungen werden in der Praxis näherungsweise mit der Finite-Elemente-Methode gelöst, die hier sowohl theoretisch als auch praktisch vorgestellt wird.
Steffen Goebbels, Stefan Ritter
Kapitel 10. Aufgaben zu Teil II
Zusammenfassung
In Kapitel 10 finden Sie Aufgaben zu Teil II mit online bereitgestellten Lösungen.
Steffen Goebbels, Stefan Ritter

Fourier-Reihen und Integraltransformationen

Frontmatter
Kapitel 11. Fourier-Reihen
Zusammenfassung
Ein Ton, der z. B. von einer schwingenden Saite erzeugt werden kann, setzt sich aus Sinus- und Kosinus-Schwingungen unterschiedlicher Frequenzen mit zugehörigen Amplituden zusammen. Das motiviert, generell periodische Funktionen in einer solchen Form als (unendliche) Summe von Sinus- und Kosinus-Termen darzustellen. Mit den Potenzreihen haben wir in Band 1 bereits etwas sehr Ähnliches getan. Wir haben beliebig oft differenzierbare Funktionen als Summe von algebraischen Monomen innerhalb eines Konvergenzradius geschrieben. Nun werden statt der Monome die Sinus- und Kosinus-Terme eingesetzt, und statt der Differenzierbarkeit wird die Periodizität ausgenutzt. Allerdings sind Konvergenzaussagen, von denen wir eine in diesem Kapitel beweisen, etwas komplizierter als bei Potenzreihen. Mit der Faltung wird in diesem Kapitel eine wichtige Verknüpfung zweier Funktionen zu einer neuen Funktion eingeführt. Technische Filter lassen sich in der Regel über eine Faltung beschreiben. Das liegt am Faltungssatz, der den Zusammenhang zwischen Fourier-Reihen und der Faltung beschreibt. Hier wird die Faltung konkret genutzt, um die Konvergenz von Fourier-Reihen zu verstehen. Neben der reellen Schreibweise mittels Sinus und Kosinus wird eine komplexe Schreibweise mit der komplexen Exponentialfunktion verwendet. Mit dieser lässt sich einfacher rechnen, da keine Additionstheoreme benötigt werden. Dadurch wird später auch die Beschreibung der diskreten Fourier-Transformation und des FFT-Algorithmus einfacher.
Steffen Goebbels, Stefan Ritter
Kapitel 12. Fourier-Transformation
Zusammenfassung
Fourier-Reihen lassen sich nur für periodische Funktionen nutzen. In der Mathematik als Strukturwissenschaft versucht man aber, bereits gefundene Resultate in einen allgemeineren Zusammenhang zu übertragen, so dass sie auch in anderen Bereichen genutzt werden können. Das gelingt hier, man kann auch gewisse nicht-periodische Funktionen über Sinus- und Kosinusfunktionen darstellen. Wir betrachten in diesem Kapitel den formalen Grenzwert der Periode gegen unendlich, um Fourier-Transformierte nicht-periodischer Funktionen zu motivieren. Dann vergleichen wir sie mit den Koeffizienten der Fourier-Reihen und schauen uns die Eigenschaften dieser neuen Transformation an. Dabei sehen wir, dass die Transformation ein nützliches Rechenwerkzeug sein kann. Auch übertragen wir die Faltung auf nicht-periodische Funktionen.
Steffen Goebbels, Stefan Ritter
Kapitel 13. Laplace-Transformation
Zusammenfassung
Das Problem bei der Fourier-Transformation ist, dass das Integral zu ihrer Berechnung nur unter strengen zusätzlichen Voraussetzungen existiert. Lösungen von Differenzialgleichungen setzen sich häufig aus Exponentialfunktionen zusammen, für die diese Voraussetzungen nicht erfüllt sind. Die Fourier-Transformation kann daher oft nicht zum Lösen von Differenzialgleichungen genutzt werden, obwohl es eine schöne Rechenregel gibt, mit der Ableitungen eliminiert werden können. Der Trick der Integraltransformation, durch partielle Integration eine Ableitung zu eliminieren, ist aber zu schön, um an dieser Stelle aufzugeben. Daher wurde die Fourier-Transformation zur Laplace-Transformation modifiziert. Dabei wird eine Hilfsfunktion Fourier-transformiert, für die das Integral aus der Definition der Fourier-Transformation existiert. In diesem Kapitel schauen wir uns Definition und Eigenschaften der Laplace-Transformation an. Wir lösen mit der Laplace-Transformation lineare Differenzialgleichungen mit konstanten Koeffizienten, die auch von höherer Ordnung sein können, und stellen den Bezug zu der zuvor behandelten Lösungsmethode her. In der Systemtheorie und Regelungstechnik ist die Laplace-Transformation ein wichtiges Hilfsmittel. Am Ende des Kapitels wird daher auf diesen praktischen Einsatz der Transformation eingegangen.
Steffen Goebbels, Stefan Ritter
Kapitel 14. Diskrete Fourier-Transformation
Zusammenfassung
In diesem Kapitel beschäftigen wir uns damit, wie aus endlich vielen abgetasteten Funktionswerten Fourier-Koeffizienten und Werte der Fourier-Transformation näherungsweise berechnet werden können und sich im zweiten Schritt auch die Funktion selbst rekonstruieren lässt. In der Praxis liegen meist (durch Messung) nur endlich viele Funktionswerte aus einem endlichen Intervall vor. Indem man die Integrale durch einfache Quadraturformeln ersetzt, kann man aus diesen Daten die gesuchten Fourier-Koeffizienten oder Werte der Transformierten annähern. Dabei erhalten wir eine weitere Transformation, die Vektoren auf Vektoren durch Multiplikation mit einer speziellen Matrix abbildet. Das ist die diskrete Fourier-Transformation, deren Eigenschaften wir diskutieren und anwenden. Mit dem Fast-Fourier-Transform-Algorithmus (FFT) gibt es eine schnelle Implementierung dieser speziellen Matrixmultiplikation. Wir untersuchen außerdem, welche Fehler bei den näherungsweisen Berechnungen auftreten können. Das führt zu Abtastsätzen für periodische und nicht-periodische Funktionen. In der Praxis lassen sich Fehler aber nicht vermeiden. Mit den ebenfalls in diesem Kapitel behandelten Fensterfunktionen können wir sie aber anwendungsspezifisch beeinflussen.
Steffen Goebbels, Stefan Ritter
Kapitel 15. Wavelets und schnelle Wavelet-Transformation ∗
Zusammenfassung
In die Berechnung von Fourier-Koeffizienten und von Werten der Fourier-Transformierten gehen alle Werte der Eingangsfunktion ein. Schöner wäre es, wenn sich nur Funktionswerte aus kleinen Intervallen auf gewisse zugehörige Werte der Fourier-Transformierten auswirken würden. Denn in der Praxis lassen sich nur endlich viele Abtastwerte aus einem endlichen Intervall verwenden, die Werte außerhalb des Intervalls spielen aber leider für die exakte Berechnung aller Werte der Transformierten eine Rolle. Bei zu analysierenden Signalen liegen sie zum Teil in der Zukunft. Hier kann man sich mit Fensterfunktionen behelfen, die die nicht verfügbaren Daten ausblenden, aber leider auch zu einem Fehler führen. Die Verwendung von Fenstern ist eine Lokalisierung der Fourier-Transformation. Die Ursache des globalen Verhaltens der Fourier-Transformation liegt darin, dass die verwendeten Sinus- und Kosinus-Funktionen nicht nur lokal Werte ungleich null annehmen. Bei der Wavelet-Transformation werden die Sinus- und Kosinus-Funktionen durch Funktionen ersetzt, die mit wachsenden Frequenzen auf immer kleineren Intervallen von null verschieden sind. Bei einer lokalen Änderung ändern sich dann nur die Koeffizienten bzw. Werte der Transformierten, die einen lokalen Bezug haben, die anderen bleiben unverändert. Wie Fourier-Transformationen werden Wavelet-Transformationen z. B. zur verlustbehafteten Datenkompression eingesetzt, u. a. bei JPEG 2000. In diesem Kapitel besprechen wir die Idee der Wavelets am einfachsten Beispiel des Haar-Wavelets. Daraus wird die diskrete Wavelet-Transformation hergeleitet.
Steffen Goebbels, Stefan Ritter
Kapitel 16. Aufgaben zu Teil III
Zusammenfassung
In Kapitel 16 finden Sie Aufgaben zu Teil III mit online bereitgestellten Lösungen.
Steffen Goebbels, Stefan Ritter

Wahrscheinlichkeitsrechnung und Statistik

Frontmatter
Kapitel 17. Beschreibende Statistik
Zusammenfassung
In diesem Kapitel beschäftigen wir uns mit den wichtigsten Begriffen zur Aufbereitung und Darstellung großer Datenmengen. Anhand weniger Kenngrößen soll ein fundierter und möglichst nicht-verfälschter Eindruck wiedergegeben werden. Während das arithmetische Mittel allgemein bekannt ist, werden vermutlich viele Leser den Median nicht kennen. Wenn man von einem Mittelwert liest, dann ist tatsächlich erst einmal unklar, was sich dahinter verbirgt. Wir diskutieren Ausreißer (z. B. mit dem Begriff der Quantile) und die Streuung von Daten (Varianz). Außerdem untersuchen wir mit der Regressionsrechnung, ob es einen (linearen oder polynomialen) Zusammenhang zwischen zwei Datensätzen gibt. Ein wichtiger Begriff der beschreibenden Statistik ist die relative Häufigkeit. Ihr nachgebildet ist im nächsten Kapitel der Begriff der Wahrscheinlichkeit. Außerdem wird beschreibende Statistik in der schließenden Statistik genutzt, um auf der Basis von Stichproben Schätzungen vorzunehmen.
Steffen Goebbels, Stefan Ritter
Kapitel 18. Wahrscheinlichkeitsrechnung
Zusammenfassung
Bei der beschreibenden Statistik liegen alle Daten vor. Hat man dagegen nur einen Ausschnitt und möchte man damit dennoch Aussagen über die Gesamtheit machen (z. B. bei Prognosen), benötigt man die Wahrscheinlichkeitsrechnung. In den Abschnitten dieses Kapitels werden ihre Grundzüge dargestellt. Dazu werden zunächst Ereignisse als Teilmengen der Grundgesamtheit der überhaupt möglichen Ergebnisse eines Zufallsexperiments modelliert. Dann wird auf der Menge der Ereignisse ein Wahrscheinlichkeitsmaß definiert, das den Ereignissen ihre Eintrittswahrscheinlichkeit zuordnet. Wahrscheinlichkeitsmaße orientieren sich oft an relativen Häufigkeiten. Daher muss man die Elemente einer Menge zählen. Hier helfen die Formeln der Kombinatorik. Damit man nicht immer ein aufwändiges Modell mit Ereignissen erstellen und zählen muss, kann man Zufallsvariablen einsetzen. Das sind entgegen ihres Namens Funktionen, die Versuchsausgänge eines Zufallsexperiments auf Zahlen abbilden. In vielen Situationen ist bekannt, mit welchen Wahrscheinlichkeiten dann gewisse Zahlen angenommen werden. Außerdem kann man nun mit Zahlen rechnen und z. B. einen Mittelwert bilden. Der heißt nun aber Erwartungswert und drückt aus, welchen Wert man im Mittel für die Zufallsvariable erwartet. Ebenso kann man nun die Streuung von Zufallsvariablen messen. Mit dem Gesetz der großen Zahlen und dem zentralen Grenzwertsatz werden wir sehen, dass durch das unabhängige Wiederholen von Zufallsexperimenten nicht nur die Streuung reduziert werden kann, sondern dass man auch dann Wissen über Wahrscheinlichkeiten erhält, wenn die Wahrscheinlichkeiten des einzelnen Zufallsexperiments (das wiederholt wird) unbekannt sind. Dadurch wird die schließende Statistik möglich. Damit die Darstellung nicht zu kompliziert wird, gehen wir nur am Rande auf Ereignis- bzw. Sigma-Algebren als Mengen von Ereignissen ein. Außerdem benutzen wir keine Maß- und Integrationstheorie, indem wir (fast) nur Zufallsvariablen mit abzählbar vielen Werten betrachten. So können z. B. Erwartungswerte mittels Summen berechnet werden, und es werden, abgesehen vom letzten Unterkapitel, keine Integrale benötigt.
Steffen Goebbels, Stefan Ritter
Kapitel 19. Schließende Statistik
Zusammenfassung
Wir setzen in diesem Kapitel die Ergebnisse der Wahrscheinlichkeitsrechnung ein, um auf der Basis unvollständiger Daten Aussagen zu treffen. Dabei können diese Aussagen nur mit einer gewissen Wahrscheinlichkeit gelten. Beispiele sind Wahlprognosen, Qualitätsprüfungen auf der Basis von Stichproben, Wettervorhersagen oder Monte-Carlo-Simulationen analoger Schaltkreise. Die Grundidee dabei ist das Gesetz der großen Zahlen und der Zentrale Grenzwertsatz. Obwohl man die Wahrscheinlichkeiten der Ausgänge eines Experiments nicht kennt, kann man durch hinreichend häufige unabhängige Wiederholung dieses Experiments und Übergang zum arithmetischen Mittel der Ergebnisse etwas über Wahrscheinlichkeiten sagen. Denn das arithmetische Mittel konvergiert gegen den Erwartungswert und ist annähernd normalverteilt – unabhängig davon, welche Verteilung das einzelne Experiment hat. Das Kapitel fasst kurz einige wichtige Schätzverfahren zusammen. Dazu gehören die Punktschätzungen, bei denen ein Zahlenwert möglichst gut vorhergesagt werden soll. Bei Intervallschätzungen sucht man ein kleines Intervall, in dem ein vorherzusagender Wert mindestens mit vorgegebener Wahrscheinlichkeit liegt. Bei Hypothesentests soll entschieden werden, ob einer Hypothese aufgrund der vorliegenden Daten zugestimmt werden sollte oder ob sie abzulehnen ist. Mit der statistischen Prozesslenkung betrachten wir zudem ein Anwendungsbeispiel.
Steffen Goebbels, Stefan Ritter
Kapitel 20. Aufgaben zu Teil IV
Zusammenfassung
In Kapitel 20 finden Sie Aufgaben zu Teil IV mit online bereitgestellten Lösungen.
Steffen Goebbels, Stefan Ritter
Backmatter
Metadaten
Titel
Mathematik verstehen und anwenden: Differenzialgleichungen, Fourier- und Vektoranalysis, Laplace-Transformation und Stochastik
verfasst von
Steffen Goebbels
Stefan Ritter
Copyright-Jahr
2023
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-68369-9
Print ISBN
978-3-662-68368-2
DOI
https://doi.org/10.1007/978-3-662-68369-9