Skip to main content
main-content

Über dieses Buch

In der modernen Stochastik werden Wahrscheinlichkeiten im Zusammenhang mit Zufallsvariablen gedacht. Damit macht dieses Lehrbuch Ernst, schon die Welt uniform verteilter Zufallsgrößen wird dann farbig. Das Konzept der Zufallsgrößen prägt den Aufbau des Buches. Es enthält neue Beispiele und dringt auf knappem Raum weit in das Rechnen mit Zufallsvariablen vor, ohne Techniken aus der Maß- und Integrationstheorie zu bemühen. Die wichtigsten diskreten und kontinuierlichen Verteilungen werden erklärt, und der Umgang mit Erwartungswert, Varianz und bedingten Verteilungen wird vermittelt. Der Text reicht bis zum Zentralen Grenzwertsatz (samt Beweis) und zu den Anfängen der Markovketten. Je ein Kapitel ist Ideen der Statistik und der Informationstheorie gewidmet. Damit liefert das Buch Orientierung und Material für verschiedene Varianten 2- oder 4-stündiger einführender Lehrveranstaltungen.

Inhaltsverzeichnis

Frontmatter

Zufallsvariable mit uniformer Verteilung

■ 1. Ein Beispiel: Kollision von Kennzeichen

Um Bekanntschaft mit den grundlegenden Begriffen — Zufallsvariable, Zielbereich, Ereignis, Wahrscheinlichkeit — zu machen, betrachten wir in diesem Abschnitt ein Beispiel: Jedes von n Individuen ist mit je einem von r möglichen Kennzeichen versehen, das vom Zufall bestimmt ist. Man kann an verschiedene Situationen denken. Entweder hat jedes Individuum sein Kennzeichen zufällig erhalten, wie eine PIN. Oder aber, ein jedes Individuum hat sein festes Kennzeichnen, wie seinen Namen oder dessen Anfangsbuchstaben, und bei den n Individuen handelt es sich um eine zufällige Stichprobe aus einer Population.

■ 2. Diskret uniform verteilte Zufallsvariable

Mit der rein zufälligen Kennzeichnung von Individuen haben wir im vorigen Abschnitt ein Beispiel einer uniform verteilten Zufallsvariablen kennengelernt, im Sinne folgender Definition.

■ 3. Kontinuierlich uniform verteilte Zufallsvariable*

Die Idee einer uniform verteilten Zufallsvariablen ist nicht nur bei endlichem Zielbereich sinnvoll.

Zufallsvariable und Verteilungen

■ 4. Ein Beispiel: Vom Würfeln zum p-Münzwurf

Betrachten wir eine Zufallsvariable X=(X1,...,Xn), bei der Xi für das Ergebnis des i-ten Wurfes b eim n-maligen Würfeln steht. Jede Serie ist gleich wahrscheinlich, X ist uniform verteilt auf {1,...,6}{1,...,n}. (Man erinnere sich: Im Eingangsbeispiel des vorigen Kapitels hatten wir so die rein zufällige Kennzeichnung von n Individuen mit r Kennzeichen beschrieben; jetzt ist r=6.)

■ 5. Zufallsvariable mit Gewichten

Vor der Behandlung von weiteren Beispielen erklären wir einige wichtige Begriffe.

■ 6. Zufallsvariable mit Dichten

Zufallsvariable mit Dichten sind ein kontinuierliches Analogon zu Zufallsvariablen mit Gewichten. Die Dichten darf man sich als infinitesimale Gewichte denken. In diesem Abschnitt betrachten wir Intervalle der reellen Achse als Zielbereiche.

Erwartungswert, Varianz, Unabhängigkeit

■ 7. Ein neuer Blick auf alte Formeln

Erwartungswert und Varianz der Bin(n, p)-Verteilung, np und npq, sowie der Hyp(n, g, w)-Verteilung, np und npq\( \tfrac{{g - n}} {{g - 1}} \) mit p:=w/g, haben wir bereits berechnet. Jetzt wollen wir diese Ausdrücke in ihrer Form besser verstehen. Es fällt auf, dass die ersten drei linear in n wachsen, dass dieses Schema aber für den letzten Ausdruck aufgehoben ist.

■ 8. Das Rechnen mit Erwartungswerten

Wir kommen nun zu den fundamentalen Eigenschaften des Erwartungswertes. Bei Beweisen beschränken wir uns der Übersichtlichkeit halber auf diskrete Zufallsvariable, die Regeln gelten allgemein.

■ 9. Das Rechnen mit Varianzen

Der Definition (5.8) entnimmt man die für beliebige c, d∈ℝ geltende Eigenschaft
$$ Var[cX + d] = c^2 Var[X], $$
oder, in der Standardabweichung ausgedrückt, \( \sqrt {Var[cX + d]} = c\sqrt {Var[X]} .Man \). Man sagt, die Standardabweichung ist ein Skalenparameter.

■ 10. Unabhängigkeit

Unabhängigkeit gehört zu den fundamentalen Konzepten der Stochastik. Im vorigen Abschnitt haben wir bereits Bekanntschaft mit dem Begriff der Unabhängigkeit von zwei Zufallsvariablen gemacht, wir verallgemeinern ihn nun auf endliche Systeme von Zufallsvariablen.

■ 11. Summen von unabhängigen Zufallsvariablen

In diesem Abschnitt befassen wir uns mit der Verteilung der Summe
$$ Y: = X_1 + \cdots + X_n $$
(11.1)
von unabhängigen, reellwertigen Zufallsvariablen X1,...,X n . Die Frage nach der Verteilung von Y ist ein altes Thema der Stochastik, das sich auf mannigfaltige Weise motivieren lässt. Man kann z. B. (wie schon Gauß) an zufällige Messfehler Y denken, die sich aus n unabhängigen Einzelfehlern zusammensetzen.

■ 12. Ein Beweis des Zentralen Grenzwertsatzes*

In dem Beweis des Zentralen Grenzwertsatzes können wir μ=0 und σ2=1 annehmen, sonst ersetze man einfach Xi durch (Xi−μ)/σ.

Abhängige Zufallsvariable und bedingte Verteilungen

■ 13. Ein Beispiel: Suchen in Listen

Es werden n verschiedene Namen (oder im Kontext der Informatik: n Schlüssel) in r Listen einsortiert, jeder Name habe dabei ein Kennzeichen aus {1,...,r} (verschiedene Namen haben möglicherweise dasselbe Kennzeichen). Unser Modell ist nun allgemeiner als in Abschnitt 1: Die Kennzeichen der Namen betrachten wir als unabhängige, identisch verteilte Zufallsvariable, wobei 1,...,r als Kennzeichen mit den Wahrscheinlichkeiten p1,...,pr auftreten. Die Namen mit dem Kennzeichen j kommen in die Liste mit der Nummer j. Das zufällige r-tupel Z=(Z1,...,Zr) der Listenlängen ist also multinomialverteilt zu den Parametern n, p1,...,pr, und Zj ist binomialverteilt zu den Parametern n, pj.

■ 14. Zufällige Übergänge

Wir betrachten eine diskrete Zufallsvariable X=(X1, X2) (ein „zufälliges Paar“) mit Zielbereich S=S1×S2. Stellen wir uns vor, dass X auf zweistufige Weise zustande kommt: Es gibt eine Regel, die besagt, wie X2 verteilt ist, gegeben, dass X1 den Ausgang a1 hat.

■ 15. Markovketten

Wir betrachten nun mehrstufige Zufallsexperimente, beschrieben durch eine Folge X0, X1,... ... von Zufallsvariablen mit ein und demselben abzählbaren Zielbereich S. (Anders als vorher beginnt jetzt die Zählung der Stufen mit Null.) S nennt man hier Zustandsraum, seine Elemente Zustände. Man spricht auch gern von einem zufälligen Pfad X=(X0, X1,...) durch S und fasst den Index von X n als Zeitparameter auf.

■ 16. Bedingte Verteilungen

In den vorigen Abschnitten haben wir die gemeinsame Verteilung von Zufallsvariablen aus einer Marginalverteilung und aus Übergangswahrscheinlichkeiten aufgebaut. Eine zentrale Feststellung ist: Man kann diese Vorgehensweise immer auch umkehren und von der gemeinsamen Verteilung ausgehen. Dazu benötigen wir folgende Definition, die zunächst den diskreten Fall behandelt.

■ 17. Bedingte Wahrscheinlichkeiten und ihre Deutung

Der Begriff der bedingten Wahrscheinlichkeit ist fundamental, seine Deutung bereitet manchmal Schwierigkeiten. Jetzt sind wir dafür gerüstet.

Ideen aus der Statistik

■ 18. Ein Beispiel: Statistik von Anteilen

Bei einer biologischen Expedition in der Helgoländer Tiefen Rinnewurden 53 Krebse der Art Pisidia longicornis gefangen, davon 30 Männchen und 23 Weibchen. Nehmen wir an, die n=53 Individuen wurden rein zufällig aus einer großen Population gezogen. Gibt der Weibchenanteil 23/53 Anlass, an einem ausgeglichenen Geschlechterverhältnis zu zweifeln? Wieviel Variabilität ist hier im Spiel?

■ 19. Prinzipien des Schätzens

In der Statistik fasst man Daten oft als Werte von Zufallsvariablen auf. Man nimmt dazu ein Modell mit einer Zufallsvariablen X, bei deren Verteilung noch ein Parameter ϑ frei bleibt:
$$ P_\vartheta (X \in da) = \rho _\vartheta (da), \vartheta \in \Theta . $$
(19.1)
Θ heißt Parameterraum. Man denke an Normalverteilungen mit ϑ=(μ, σ2) und Θ=ℝ×ℝ+. Der Zielbereich S von X ist der Beobachtungsraum. Der Parameter ϑ soll aus den Daten geschätzt werden.

■ 20. Konfidenzintervalle: Schätzen mit Verlass

Im Eingangsbeispiel des Kapitels haben wir in (18.2) bereits ein Konfidenzintervall kennengelernt. Nun betrachten wir ein Konfidenzintervall für ein reelles Parametermerkmal m(ϑ) im allgemeinen Rahmen von Abschnitt 19. Es handelt sich um ein aus den Daten X konstruiertes Intervall I=I(X). Gilt für jedesϑ
$$ P_\vartheta (m(\vartheta ) \in I) \geqslant 1 - \alpha $$
für ein α∈(0,1), dann sagt man: Das Konfidenzintervall I hat Niveau 1−α, es hält die Überdeckungswahrscheinlichkeit 1−α ein.

■ 21. Statistische Tests: Kann das Zufall sein?

Wie bereits festgestellt, ist die Grundidee der Statistik, Daten als Realisierungen von Zufallsvariablen aufzufassen, über deren Verteilung man aus den Daten lernen will. Beim statistischen Testen trifft man eine Hypothese über die Verteilung und fragt: Liegen die beobachten Daten „im Rahmen“, oder ist hier ein Ereignis eingetreten, das unter der Hypothese so unwahrscheinlich ist, dass wir begründeten Zweifel am Zutreffen der Hypothese hegen sollten? Am Ende von Abschnitt 18 haben wir ein Beispiel angetroffen, bei dem die Daten keinen Grund zum Zweifel an der Hypothese p=1/2 gaben. Im folgenden Beispiel ist dies anders.

■ 22. Lineare Modelle: Im Reich der Normalverteilung*

Die Normalverteilung hat eine hervorgehobene Stellung in der Statistik. Wir wollen zum Abschluss des Kapitels die Gründe verdeutlichen, sie liegen in den Symmetrie-eigenschaften der multivariaten Normalverteilung, ihrer „Geometrie“.

Ideen aus der Informationstheorie

■ 23. Sparsames Codieren

Sei S eine abzählbare Menge. Wir nennen sie in diesem Kapitel ein Alphabet und ihre Elemente Buchstaben. Unter einem binären Code von S verstehen wir eine injektive Abbildung
$$ k:S \to \bigcup\limits_{\iota \geqslant 1} {\{ 0,1\} ^\iota .} $$
Sie ordnet jedem Buchstaben a eine 01-Folge k(a)=k1(a)...kι(a) endlicher Länge l=ℓ(a) als Codewort zu. Die Abbildung
$$ \ell :S \to \mathbb{N} $$
ist das wesentliche Merkmal für die Güte des Codes. Die Codewortlängen sollen möglichst kurz sein — dabei darf man aber nicht aus den Augen verlieren, dass Codewörter auch wieder entziffert werden sollen. Es ist deshalb sinnvoll, sich auf Präfixcodes zu beschränken. Dies bedeutet, dass kein Codewort Anfangsstück eines anderen Codeworts ist, dass es also für Buchstaben a≠b keine endliche 01-Folge f=f1...fm gibt mit k(a)f=k(b)

■ 24. Entropie

Die Entropie ist der fundamentale Begriff der Informationstheorie.

■ 25. Redundantes Codieren*

Digitale Nachrichtenübertragung — man denke etwa an die Datenübermittelung von Satelliten — sieht schematisch so aus: Zunächst wird die Nachricht an der Quelle in eine Form gebracht, die ihre Übertragung möglich macht. Sie wird, etwa nach der Methode von Huffman, in eine 01-Folge transformiert. Am anderen Ende der Nachrichtenstrecke ist die empfangene 01-Sequenz vom Empfänger zu entschlüsseln, und zwar auf möglichst unkomplizierte Weise.

Backmatter

Weitere Informationen

Premium Partner

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Blockchain-Effekte im Banking und im Wealth Management

Es steht fest, dass Blockchain-Technologie die Welt verändern wird. Weit weniger klar ist, wie genau dies passiert. Ein englischsprachiges Whitepaper des Fintech-Unternehmens Avaloq untersucht, welche Einsatzszenarien es im Banking und in der Vermögensverwaltung geben könnte – „Blockchain: Plausibility within Banking and Wealth Management“. Einige dieser plausiblen Einsatzszenarien haben sogar das Potenzial für eine massive Disruption. Ein bereits existierendes Beispiel liefert der Initial Coin Offering-Markt: ICO statt IPO.
Jetzt gratis downloaden!

Bildnachweise