Skip to main content
Top

2008 | Book

Elementare Stochastik

Authors: Götz Kersting, Anton Wakolbinger

Publisher: Birkhäuser Basel

Book Series : Mathematik Kompakt

insite
SEARCH

About this book

In der modernen Stochastik werden Wahrscheinlichkeiten im Zusammenhang mit Zufallsvariablen gedacht. Damit macht dieses Lehrbuch Ernst, schon die Welt uniform verteilter Zufallsgrößen wird dann farbig. Das Konzept der Zufallsgrößen prägt den Aufbau des Buches. Es enthält neue Beispiele und dringt auf knappem Raum weit in das Rechnen mit Zufallsvariablen vor, ohne Techniken aus der Maß- und Integrationstheorie zu bemühen. Die wichtigsten diskreten und kontinuierlichen Verteilungen werden erklärt, und der Umgang mit Erwartungswert, Varianz und bedingten Verteilungen wird vermittelt. Der Text reicht bis zum Zentralen Grenzwertsatz (samt Beweis) und zu den Anfängen der Markovketten. Je ein Kapitel ist Ideen der Statistik und der Informationstheorie gewidmet. Damit liefert das Buch Orientierung und Material für verschiedene Varianten 2- oder 4-stündiger einführender Lehrveranstaltungen.

Table of Contents

Frontmatter

Zufallsvariable mit uniformer Verteilung

■ 1. Ein Beispiel: Kollision von Kennzeichen
Zusammenfassung
Um Bekanntschaft mit den grundlegenden Begriffen — Zufallsvariable, Zielbereich, Ereignis, Wahrscheinlichkeit — zu machen, betrachten wir in diesem Abschnitt ein Beispiel: Jedes von n Individuen ist mit je einem von r möglichen Kennzeichen versehen, das vom Zufall bestimmt ist. Man kann an verschiedene Situationen denken. Entweder hat jedes Individuum sein Kennzeichen zufällig erhalten, wie eine PIN. Oder aber, ein jedes Individuum hat sein festes Kennzeichnen, wie seinen Namen oder dessen Anfangsbuchstaben, und bei den n Individuen handelt es sich um eine zufällige Stichprobe aus einer Population.
■ 2. Diskret uniform verteilte Zufallsvariable
Zusammenfassung
Mit der rein zufälligen Kennzeichnung von Individuen haben wir im vorigen Abschnitt ein Beispiel einer uniform verteilten Zufallsvariablen kennengelernt, im Sinne folgender Definition.
■ 3. Kontinuierlich uniform verteilte Zufallsvariable*
Zusammenfassung
Die Idee einer uniform verteilten Zufallsvariablen ist nicht nur bei endlichem Zielbereich sinnvoll.

Zufallsvariable und Verteilungen

■ 4. Ein Beispiel: Vom Würfeln zum p-Münzwurf
Zusammenfassung
Betrachten wir eine Zufallsvariable X=(X1,...,Xn), bei der Xi für das Ergebnis des i-ten Wurfes b eim n-maligen Würfeln steht. Jede Serie ist gleich wahrscheinlich, X ist uniform verteilt auf {1,...,6}{1,...,n}. (Man erinnere sich: Im Eingangsbeispiel des vorigen Kapitels hatten wir so die rein zufällige Kennzeichnung von n Individuen mit r Kennzeichen beschrieben; jetzt ist r=6.)
■ 5. Zufallsvariable mit Gewichten
Zusammenfassung
Vor der Behandlung von weiteren Beispielen erklären wir einige wichtige Begriffe.
■ 6. Zufallsvariable mit Dichten
Zusammenfassung
Zufallsvariable mit Dichten sind ein kontinuierliches Analogon zu Zufallsvariablen mit Gewichten. Die Dichten darf man sich als infinitesimale Gewichte denken. In diesem Abschnitt betrachten wir Intervalle der reellen Achse als Zielbereiche.

Erwartungswert, Varianz, Unabhängigkeit

■ 7. Ein neuer Blick auf alte Formeln
Zusammenfassung
Erwartungswert und Varianz der Bin(n, p)-Verteilung, np und npq, sowie der Hyp(n, g, w)-Verteilung, np und npq\( \tfrac{{g - n}} {{g - 1}} \) mit p:=w/g, haben wir bereits berechnet. Jetzt wollen wir diese Ausdrücke in ihrer Form besser verstehen. Es fällt auf, dass die ersten drei linear in n wachsen, dass dieses Schema aber für den letzten Ausdruck aufgehoben ist.
■ 8. Das Rechnen mit Erwartungswerten
Zusammenfassung
Wir kommen nun zu den fundamentalen Eigenschaften des Erwartungswertes. Bei Beweisen beschränken wir uns der Übersichtlichkeit halber auf diskrete Zufallsvariable, die Regeln gelten allgemein.
■ 9. Das Rechnen mit Varianzen
Zusammenfassung
Der Definition (5.8) entnimmt man die für beliebige c, d∈ℝ geltende Eigenschaft
$$ Var[cX + d] = c^2 Var[X], $$
oder, in der Standardabweichung ausgedrückt, \( \sqrt {Var[cX + d]} = c\sqrt {Var[X]} .Man \). Man sagt, die Standardabweichung ist ein Skalenparameter.
■ 10. Unabhängigkeit
Zusammenfassung
Unabhängigkeit gehört zu den fundamentalen Konzepten der Stochastik. Im vorigen Abschnitt haben wir bereits Bekanntschaft mit dem Begriff der Unabhängigkeit von zwei Zufallsvariablen gemacht, wir verallgemeinern ihn nun auf endliche Systeme von Zufallsvariablen.
■ 11. Summen von unabhängigen Zufallsvariablen
Zusammenfassung
In diesem Abschnitt befassen wir uns mit der Verteilung der Summe
$$ Y: = X_1 + \cdots + X_n $$
(11.1)
von unabhängigen, reellwertigen Zufallsvariablen X1,...,X n . Die Frage nach der Verteilung von Y ist ein altes Thema der Stochastik, das sich auf mannigfaltige Weise motivieren lässt. Man kann z. B. (wie schon Gauß) an zufällige Messfehler Y denken, die sich aus n unabhängigen Einzelfehlern zusammensetzen.
■ 12. Ein Beweis des Zentralen Grenzwertsatzes*
Zusammenfassung
In dem Beweis des Zentralen Grenzwertsatzes können wir μ=0 und σ2=1 annehmen, sonst ersetze man einfach Xi durch (Xi−μ)/σ.

Abhängige Zufallsvariable und bedingte Verteilungen

■ 13. Ein Beispiel: Suchen in Listen
Zusammenfassung
Es werden n verschiedene Namen (oder im Kontext der Informatik: n Schlüssel) in r Listen einsortiert, jeder Name habe dabei ein Kennzeichen aus {1,...,r} (verschiedene Namen haben möglicherweise dasselbe Kennzeichen). Unser Modell ist nun allgemeiner als in Abschnitt 1: Die Kennzeichen der Namen betrachten wir als unabhängige, identisch verteilte Zufallsvariable, wobei 1,...,r als Kennzeichen mit den Wahrscheinlichkeiten p1,...,pr auftreten. Die Namen mit dem Kennzeichen j kommen in die Liste mit der Nummer j. Das zufällige r-tupel Z=(Z1,...,Zr) der Listenlängen ist also multinomialverteilt zu den Parametern n, p1,...,pr, und Zj ist binomialverteilt zu den Parametern n, pj.
■ 14. Zufällige Übergänge
Zusammenfassung
Wir betrachten eine diskrete Zufallsvariable X=(X1, X2) (ein „zufälliges Paar“) mit Zielbereich S=S1×S2. Stellen wir uns vor, dass X auf zweistufige Weise zustande kommt: Es gibt eine Regel, die besagt, wie X2 verteilt ist, gegeben, dass X1 den Ausgang a1 hat.
■ 15. Markovketten
Zusammenfassung
Wir betrachten nun mehrstufige Zufallsexperimente, beschrieben durch eine Folge X0, X1,... ... von Zufallsvariablen mit ein und demselben abzählbaren Zielbereich S. (Anders als vorher beginnt jetzt die Zählung der Stufen mit Null.) S nennt man hier Zustandsraum, seine Elemente Zustände. Man spricht auch gern von einem zufälligen Pfad X=(X0, X1,...) durch S und fasst den Index von X n als Zeitparameter auf.
■ 16. Bedingte Verteilungen
Zusammenfassung
In den vorigen Abschnitten haben wir die gemeinsame Verteilung von Zufallsvariablen aus einer Marginalverteilung und aus Übergangswahrscheinlichkeiten aufgebaut. Eine zentrale Feststellung ist: Man kann diese Vorgehensweise immer auch umkehren und von der gemeinsamen Verteilung ausgehen. Dazu benötigen wir folgende Definition, die zunächst den diskreten Fall behandelt.
■ 17. Bedingte Wahrscheinlichkeiten und ihre Deutung
Zusammenfassung
Der Begriff der bedingten Wahrscheinlichkeit ist fundamental, seine Deutung bereitet manchmal Schwierigkeiten. Jetzt sind wir dafür gerüstet.

Ideen aus der Statistik

■ 18. Ein Beispiel: Statistik von Anteilen
Zusammenfassung
Bei einer biologischen Expedition in der Helgoländer Tiefen Rinnewurden 53 Krebse der Art Pisidia longicornis gefangen, davon 30 Männchen und 23 Weibchen. Nehmen wir an, die n=53 Individuen wurden rein zufällig aus einer großen Population gezogen. Gibt der Weibchenanteil 23/53 Anlass, an einem ausgeglichenen Geschlechterverhältnis zu zweifeln? Wieviel Variabilität ist hier im Spiel?
■ 19. Prinzipien des Schätzens
Zusammenfassung
In der Statistik fasst man Daten oft als Werte von Zufallsvariablen auf. Man nimmt dazu ein Modell mit einer Zufallsvariablen X, bei deren Verteilung noch ein Parameter ϑ frei bleibt:
$$ P_\vartheta (X \in da) = \rho _\vartheta (da), \vartheta \in \Theta . $$
(19.1)
Θ heißt Parameterraum. Man denke an Normalverteilungen mit ϑ=(μ, σ2) und Θ=ℝ×ℝ+. Der Zielbereich S von X ist der Beobachtungsraum. Der Parameter ϑ soll aus den Daten geschätzt werden.
■ 20. Konfidenzintervalle: Schätzen mit Verlass
Zusammenfassung
Im Eingangsbeispiel des Kapitels haben wir in (18.2) bereits ein Konfidenzintervall kennengelernt. Nun betrachten wir ein Konfidenzintervall für ein reelles Parametermerkmal m(ϑ) im allgemeinen Rahmen von Abschnitt 19. Es handelt sich um ein aus den Daten X konstruiertes Intervall I=I(X). Gilt für jedesϑ
$$ P_\vartheta (m(\vartheta ) \in I) \geqslant 1 - \alpha $$
für ein α∈(0,1), dann sagt man: Das Konfidenzintervall I hat Niveau 1−α, es hält die Überdeckungswahrscheinlichkeit 1−α ein.
■ 21. Statistische Tests: Kann das Zufall sein?
Zusammenfassung
Wie bereits festgestellt, ist die Grundidee der Statistik, Daten als Realisierungen von Zufallsvariablen aufzufassen, über deren Verteilung man aus den Daten lernen will. Beim statistischen Testen trifft man eine Hypothese über die Verteilung und fragt: Liegen die beobachten Daten „im Rahmen“, oder ist hier ein Ereignis eingetreten, das unter der Hypothese so unwahrscheinlich ist, dass wir begründeten Zweifel am Zutreffen der Hypothese hegen sollten? Am Ende von Abschnitt 18 haben wir ein Beispiel angetroffen, bei dem die Daten keinen Grund zum Zweifel an der Hypothese p=1/2 gaben. Im folgenden Beispiel ist dies anders.
■ 22. Lineare Modelle: Im Reich der Normalverteilung*
Zusammenfassung
Die Normalverteilung hat eine hervorgehobene Stellung in der Statistik. Wir wollen zum Abschluss des Kapitels die Gründe verdeutlichen, sie liegen in den Symmetrie-eigenschaften der multivariaten Normalverteilung, ihrer „Geometrie“.

Ideen aus der Informationstheorie

■ 23. Sparsames Codieren
Zusammenfassung
Sei S eine abzählbare Menge. Wir nennen sie in diesem Kapitel ein Alphabet und ihre Elemente Buchstaben. Unter einem binären Code von S verstehen wir eine injektive Abbildung
$$ k:S \to \bigcup\limits_{\iota \geqslant 1} {\{ 0,1\} ^\iota .} $$
Sie ordnet jedem Buchstaben a eine 01-Folge k(a)=k1(a)...kι(a) endlicher Länge l=ℓ(a) als Codewort zu. Die Abbildung
$$ \ell :S \to \mathbb{N} $$
ist das wesentliche Merkmal für die Güte des Codes. Die Codewortlängen sollen möglichst kurz sein — dabei darf man aber nicht aus den Augen verlieren, dass Codewörter auch wieder entziffert werden sollen. Es ist deshalb sinnvoll, sich auf Präfixcodes zu beschränken. Dies bedeutet, dass kein Codewort Anfangsstück eines anderen Codeworts ist, dass es also für Buchstaben a≠b keine endliche 01-Folge f=f1...fm gibt mit k(a)f=k(b)
■ 24. Entropie
Zusammenfassung
Die Entropie ist der fundamentale Begriff der Informationstheorie.
■ 25. Redundantes Codieren*
Zusammenfassung
Digitale Nachrichtenübertragung — man denke etwa an die Datenübermittelung von Satelliten — sieht schematisch so aus: Zunächst wird die Nachricht an der Quelle in eine Form gebracht, die ihre Übertragung möglich macht. Sie wird, etwa nach der Methode von Huffman, in eine 01-Folge transformiert. Am anderen Ende der Nachrichtenstrecke ist die empfangene 01-Sequenz vom Empfänger zu entschlüsseln, und zwar auf möglichst unkomplizierte Weise.
Backmatter
Metadata
Title
Elementare Stochastik
Authors
Götz Kersting
Anton Wakolbinger
Copyright Year
2008
Publisher
Birkhäuser Basel
Electronic ISBN
978-3-7643-8431-9
Print ISBN
978-3-7643-8430-2
DOI
https://doi.org/10.1007/978-3-7643-8431-9