Skip to main content

2020 | Buch

Stochastik für Informatiker

Eine Einführung in einheitlich strukturierten Lerneinheiten

verfasst von: Prof. Dr. Noemi Kurt

Verlag: Springer Berlin Heidelberg

insite
SUCHEN

Über dieses Buch

Dieses Lehrbuch führt in 16 einheitlich gegliederten Kapiteln in die Wahrscheinlichkeitstheorie und Statistik ein. Dabei sind die Lernziele und benötigten Vorkenntnisse jeweils angegeben und erleichtern in Kombination mit prägnanten Zusammenfassungen die Orientierung je Kapitel. Dank vieler durchgerechneter Beispiele und Übungsaufgaben mit Lösungen kann das Buch gut zum Selbststudium oder als Begleitliteratur zur Vorlesung verwendet werden.

Nach einer sorgfältigen Einführung der Grundlagen geben weiterführende Kapitel spannende Ausblicke in Anwendungsbereiche der Stochastik und der stochastischen Modellierung – etwa Markov-Ketten, stochastische Algorithmen, Warteschlangen und Monte-Carlo-Simulationen. Leserinnen und Leser erhalten so ein solides mathematisches Fundament, um die Stochastik im weiteren Studium und in der Praxis auch in komplexen Situationen anwenden zu können.

Das Buch richtet sich an Studierende der Informatik und technischer Fachrichtungen ab dem dritten Studiensemester. Dozenten liefert es eine passgenaue Auswahl für eine einsemestrige Vorlesung.

Inhaltsverzeichnis

Frontmatter

Grundlagen der Wahrscheinlichkeitstheorie

Frontmatter
Kapitel 1. Endliche Wahrscheinlichkeitsräume
Zusammenfassung
In diesem Kapitel werden Wahrscheinlichkeitsräume eingeführt. Dies ist der mathematische Rahmen, in dem üblicherweise wahrscheinlichkeitstheoretische Fragestellungen formuliert werden. Es werden Grundbegriffe und Notationen eingeführt, um die Wirklichkeit in einer Art und Weise zu formalisieren und zu modellieren, welche die präzise mathematische Behandlung möglich macht. In Wahrscheinlichkeitsräumen können Ereignisse definiert werden, für welche man Wahrscheinlichkeiten berechnen kann. Neben den formalen Grundbegriffen und Axionen werden erste elementare Beispiele gerechnet.
Noemi Kurt
Kapitel 2. Bedingte Wahrscheinlichkeiten und Unabhängigkeit
Zusammenfassung
In diesem Kapitel werden wir etwas komplexere Situationen betrachten. Insbesondere interessieren wir uns für Wahrscheinlichkeiten bei wiederholt ausgeführten oder mehrstufigen Zufallsexperimenten. Dabei stellt sich die Frage, inwiefern partielle Informationen über das Ergebnis eines Zufallsexperiments die Wahrscheinlichkeiten beeinflussen. Zentrale Begriffe sind dabei bedingte Wahrscheinlichkeiten und die Unabhängigkeit von Ereignissen. Außerdem wird die sogenannte Bayes’sche Umkehrformel hergeleitet und in Beispielen angewandt.
Noemi Kurt
Kapitel 3. Diskrete Zufallsvariablen und Verteilungen
Zusammenfassung
In Anwendungen kommen zufällige Ereignisse oder Abläufe und deren Wahrscheinlichkeiten oft in komplexen Situationen vor, beispielsweise bei der Modellierung von Position, Intensität und Kapazität von sich zufällig bewegenden Sendern. In solchen Situationen ist es meist nicht möglich oder praktikabel, einen Wahrscheinlichkeitsraum explizit anzugeben. Man verwendet zur Modellierung stattdessen geeignete Zufallsvariablen. Oft kann man unter sinnvollen Modellannahmen Aussagen über deren Verteilung treffen, welche es erlauben, wichtige Aspekte des Problems zu beschreiben. Diese beiden zentralen Begriffe werden in diesem Kapitel eingeführt und diskutiert.
Noemi Kurt
Kapitel 4. Gemeinsame Verteilung, Unabhängigkeit von Zufallsvariablen
Zusammenfassung
In komplexeren Situationen wird es oft nicht möglich sein, einen ganzen Sachverhalt mit nur einer Zufallsvariablen zu beschreiben. Es werden möglicherweise zwei oder mehr Zufallsvariablen benötigt, die sich unter Umständen gegenseitig beeinflussen. In diesem Kapitel wird gezeigt, wie zwei oder mehr Zufallsvariablen mithilfe ihrer gemeinsamen Verteilung beschrieben werden, und wie man den gegenseitigen stochastischen Einfluss von zwei Zufallsvariablen quantifizieren kann.
Noemi Kurt
Kapitel 5. Kenngrößen für Zufallsvariablen
Zusammenfassung
Die Verteilung enthält im Prinzip alle Informationen über die zugehörigen Zufallsvariablen. Jedoch ist es nicht immer einfach und teilweise aufwendig, die Verteilung komplett zu bestimmen. Nicht immer sind auf den ersten Blick die für ein konkretes Problem relevanten Angaben erkennbar. Ziel dieses Kapitels ist es deshalb, einige Kenngrößen zu identifizieren, die bereits zentrale Informationen über eine Zufallsvariable enthalten, und die in vielen Fällen einfach zu berechnen sind. Konkret werden der Erwartungswert und die Varianz von Zufallsvariablen eingeführt sowie Kovarianz und Korrelation als Kenngrößen für den Zusammenhang zweier Zufallsvariablen.
Noemi Kurt
Kapitel 6. Zufallsvariablen mit Dichte
Zusammenfassung
Nicht alle in der Wirklichkeit auftretenden Zufallsvariablen sind diskret. In diesem Kapitel führen wir deshalb zuerst einige Begriffe für allgemeine Zufallsvariablen ein, und lernen dann einige besonders wichtige Verteilungen kennen, die mithilfe einer Dichte beschrieben werden können. Mithilfe von Dichten können Wahrscheinlichkeiten und Kenngrößen berechnet werden. Wichtige Beispiele sind die Normalverteilung und die Exponentialverteilung. Außerdem werden kurz mehrdimensionale Zufallsvariablen mit Dichten eingeführt.
Noemi Kurt
Kapitel 7. Grenzwertsätze
Zusammenfassung
In diesem Kapitel werden das Gesetz der großen Zahlen und der Zentrale Grenzwertsatz formuliert, welche eine wichtige theoretische Grundlage insbesondere für die Statistik bilden. Dabei werden nun nicht mehr eine oder endlich viele Zufallsvariablen betrachtet, sondern Folgen von Zufallsvariablen, und deren Konvergenzverhalten untersucht. Anwendung des Zentralen Grenzwertsatzes führt auf eine Approximation der Binomialverteilung durch die Normalverteilung.
Noemi Kurt

Einführung in die Statistik

Frontmatter
Kapitel 8. Parameterschätzung
Zusammenfassung
Im ersten Kapitel zur Statistik widmen wir uns einem der Grundprobleme der Statistik, nämlich der Schätzung von Parametern. Das bedeutet, dass aus gemessenen Daten relevante Kenngrößen oder Verteilungsparameter der zugrunde liegenden Verteilung geschätzt oder approximiert werden. Dabei müssen normalerweise gewisse Annahmen getroffen werden, z. B. zur Unabhängigkeit der involvierten Zufallsvariablen. Es gibt viele verschiedene Methoden für die Parameterschätzung. Wir betrachten hier klassische Schätzer für wichtige Kenngrößen, sowie die Methode der Maximum-Likelihood-Schätzung. Ebenfalls als Schätzproblem aufgefasst werden kann die Bestimmung einer Regressionsgeraden.
Noemi Kurt
Kapitel 9. Konfidenzbereiche
Zusammenfassung
Bei der Parameterschätzung möchte man immer erreichen, dass ein geschätzter Parameter möglichst nahe am echten, unbekannten Wert ist. Jedoch ist es auch bei Schätzern mit günstigen Eigenschaften prinzipiell immer möglich, dass die gemessenen Daten für die zugrunde liegende Verteilung untypisch sind, also eher extreme Ergebnisse darstellen. In solchen Fällen wird der aus den Daten berechnete Schätzer trotz guter Methoden vom echten Wert stark abweichen. Mithilfe von Konfidenzbereichen kann die Wahrscheinlichkeit von solchen Abweichungen kontrolliert werden. In diesem Kapitel diskutieren wir die Grundideen von Konfidenzbereichen, und konstruieren einige wichtige Beispiele.
Noemi Kurt
Kapitel 10. Hypothesentests
Zusammenfassung
Hypothesentests gehören zu den grundlegenden Methoden der Statistik. Sie haben das Ziel, Annahmen über Messwerte mit wahrscheinlichkeitstheoretischen Methoden zu überprüfen. Dabei wird untersucht, ob die gemessenen Werte unter der getroffenen Annahme sehr unwahrscheinlich sind. Sind sie das, wird die Annahme verworfen, und das Gegenteil für (vorläufig) richtig angenommen. Sind die Messwerte hingegen unter der getroffenen Annahme im normalen Bereich der Wahrscheinlichkeiten, wird die Annahme beibehalten. Zur Überprüfung der Annahme verwendet man üblicherweise Konfidenzintervalle, Vergleiche mit Quantilen entsprechender Verteilungen oder p-Werte. Wir betrachten in diesem Kapitel die wichtigen Beispiele des t-Tests und des \(\chi ^{2}\)-Tests.
Noemi Kurt

Markov-Ketten und stochastische Algorithmen

Frontmatter
Kapitel 11. Markov-Ketten
Zusammenfassung
Markov-Ketten modellieren den zeitlichen Verlauf gewisser Prozesse, bei denen zufällige Übergänge ausgeführt werden. Zu ihrer Beschreibung werden stochastische Matrizen verwendet. In diesem Kapitel lernen wir die wichtigsten Aspekte der Theorie von Markov-Ketten in diskreter Zeit kennen, insbesondere was deren Langzeitverhalten angeht. Zentral dafür sind invariante Verteilungen, deren Berechnung und Bedeutung wir kennenlernen. Anwendungen gibt es beispielsweise in der Modellierung von Wartesystemen oder in stochastischen Algorithmen.
Noemi Kurt
Kapitel 12. Randomisierte Algorithmen: Beispiele und Anwendungen
Zusammenfassung
Ein randomisierter (auch: zufälliger oder stochastischer) Algorithmus verwendet zufällige Ereignisse bei seiner Durchführung. In vielen Situationen haben zufällige Algorithmen Vorteile gegenüber deterministischen Algorithmen. In diesem Kapitel wird keine allgemeine Theorie entwickelt, sondern einige randomisierte Algorithmen und häufig verwendete Methoden werden anhand relative einfacher Beispiele illustriert. Solche Beispiele können in der Praxis als Teilprobleme eines größeren Algorithmus auftreten.
Noemi Kurt
Kapitel 13. Verzweigungsprozesse und erzeugende Funktionen
Zusammenfassung
Verzweigungsprozesse können als Algorithmus für die Erzeugung zufälliger Bäume aufgefasst werden. Wir betrachten in diesem Kapitel eine spezielle Konstruktion, welche auf den sogenannten Galton-Watson-Prozess führt. Wir führen wahrscheinlichkeitserzeugende Funktionen ein, um das Aussterbeverhalten solcher Prozesse zu analysieren. Zentrales Ergebnis ist ein Theorem, welches die Aussterbewahrscheinlichkeit eines Galton-Watson-Prozesses charakterisiert.
Noemi Kurt
Kapitel 14. Warteschlangenmodelle und Markov-Ketten in stetiger Zeit
Zusammenfassung
Warteschlangen bezeichnen Systeme von Bedienern und Kunden. Dabei warden die Kunden von den Bedienern nach vorgegebenen Regeln abgearbeitet. In solchen Modellen sind Fragen der Stabilität von Interesse, d. h., ob die Bediener die Menge der eingehenden Kunden abarbeiten können. Wir betrachten eine Klasse von Warteschlangenmodellen in stetiger Zeit, bei denen gewisse spezielle Eigenschaften der Exponentialverteilung eine wichtige Rolle spielen. Diese führen dann allgemeiner auf die Konstruktion von Markov-Ketten in stetiger Zeit mit endlichem Zustandsraum.
Noemi Kurt
Kapitel 15. Simulation von Zufallsvariablen, Monte-Carlo-Methode
Zusammenfassung
In diesem Kapitel werden einige Aspekte der Simulation von Zufallsvariablen beleuchtet. Dabei wird gezeigt, wie mit elementaren Mitteln aus gleichverteilten Zufallsvariablen auf [0, 1] wichtige vorgegebene Verteilungen erzeugt werden können. Weiter werden Grundprinzipien der Monte-Carlo-Simulation eingeführt und an Beispielen erläutert.
Noemi Kurt
Kapitel 16. Markov-Ketten-Monte-Carlo-Methode und Konvergenzgeschwindigkeit
Zusammenfassung
Das Grundprinzip der Monte-Carlo-Schätzung besteht in der wiederholten Durchführung eines Zufallsexperiments, um aus den Realisierungen mit Hilfe des Gesetzes der großen Zahlen einen Schätzer zu erhalten. Im Falle von Markov-Ketten-Monte-Carlo besteht dies im wiederholten Aufrufen einer Markov-Kette, bis diese annähernd ihre stationäre Verteilung erreicht hat. Wir betrachten in diesem Kapitel insbesondere den sogenannten Metropolis-Hastings-Algorithmus. Von praktischer Relevanz ist dabei auch die Frage, wie schnell eine Markov-Kette sich ihrer stationären Verteilung annähert. Hier diskutieren wir kurz ein allgemeines Ergebnis zur Konvergenzgeschwindigkeit.
Noemi Kurt
Backmatter
Metadaten
Titel
Stochastik für Informatiker
verfasst von
Prof. Dr. Noemi Kurt
Copyright-Jahr
2020
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-60516-5
Print ISBN
978-3-662-60515-8
DOI
https://doi.org/10.1007/978-3-662-60516-5