Skip to main content
main-content

Über dieses Buch

In diesem Buch werden in kompakter Form mithilfe zahlreicher Beispiele die üblichen Modelle und Methoden der angewandten Wahrscheinlichkeitstheorie und Statistik dargestellt. Es ist daher insbesondere für angehende Wirtschaftswissenschaftler, Ingenieure und Informatiker geeignet, welchen auch das didaktische Konzept des Buchs entgegenkommt: Verständnisfragen und Aufgaben in Form von „Meilensteinen“ erleichtern das eigenständige Überprüfen des Lernfortschritts. Ein ausführlicher mathematischer Anhang „Mathematik kompakt“ stellt die wichtigsten Ergebnisse aus Analysis und linearer Algebra zum effizienten Nachschlagen zur Verfügung. Ein Glossar mit den wichtigsten englischen Begriffen sowie Tabellen der statistischen Testverteilungen runden die Darstellung ab.

Inhaltsverzeichnis

Frontmatter

1. Deskriptive und explorative Statistik

Zusammenfassung
Die deskriptive (beschreibende) Statistik hat zum Ziel, empirische Daten durch Tabellen und Grafiken übersichtlich darzustellen und zu ordnen, sowie durch geeignete grundlegende Kenngrößen zahlenmäßig zu beschreiben. Vor allem bei umfangreichem Datenmaterial ist es sinnvoll, sich einen ersten Überblick zu verschaffen. Durch eine systematische Beschreibung der Daten mit Hilfsmitteln der deskriptiven Statistik können mitunter auch Fehler in den Daten – beispielsweise durch Tippfehler bei der Dateneingabe oder fehlerhafte Ergebnisse von Texterkennungssystemen – erkannt werden. Die deskriptive Statistik verwendet keine stochastischen Modelle, so dass die dort getroffenen Aussagen nicht durch Fehlerwahrscheinlichkeiten abgesichert sind. Dies kann durch die Methoden der schließenden Statistik erfolgen, sofern die untersuchten Daten den dort unterstellten Modellannahmen genügen. Die explorative (erkundende) Statistik hat darüber hinaus zum Ziel, bisher unbekannte Strukturen und Zusammenhänge in den Daten zu finden und hierdurch neue Hypothesen zu generieren. Diese auf Stichprobendaten beruhenden Hypothesen können dann im Rahmen der schließenden Statistik mittels wahrscheinlichkeitstheoretischer Methoden auf ihre Allgemeingültigkeit untersucht werden.
Ansgar Steland

2. Wahrscheinlichkeitsrechnung

Zusammenfassung
Viele Phänomene in Technik, Wirtschaft und in der Informatik sind vom Zufall beeinflusst, so dass man diese nicht exakt vorhersagen oder berechnen kann. Wir können lediglich zufällige Ereignisse durch Wahrscheinlichkeiten erfassen und beschreiben. Sofort stellt sich die Frage, wie man Wahrscheinlichkeiten berechnen kann und welche Rechenregeln für Wahrscheinlichkeiten gelten. In einem ersten Schritt werden wir hierzu einige Beispiele für zufällige (stochastische) Phänomene betrachten und anhand dieser Beispiele ein mathematisches Modell zur formalen Beschreibung entwickeln. Als nächstes führen wir den fundamentalen Begriff des Wahrscheinlichkeitsmaßes ein und lernen die wichtigsten Regeln für den Umgang mit zufälligen Ereignissen und zugehörigen Wahrscheinlichkeiten kennen. Wahrscheinlichkeit kann physikalisch begründet sein (etwa beim radioaktiven Zerfall), aus historischen Datenbeständen resultieren, künstlich erzeugt werden (in der Statistik tut man dies bewusst durch Stichprobenziehungen, bei Kartenspielen durch gutes Mischen und bei Computersimulationen durch Zufallszahlen) oder auch subjektiv vorgegeben werden (etwa durch Expertenurteile). Während somit die Interpretation durchaus unterschiedlich sein kann, so gelten doch ganz unabhängig davon stets dieselben Rechenregeln. Neben diesen Rechenregeln müssen wir die wichtigsten Wahrscheinlichkeitsverteilungen kennen lernen, wie etwa die Binomialverteilung als grundlegende Verteilung für Zählvariablen oder die Normalverteilung als Standardmodell für Messfehler. In der Wahrscheinlichkeitsrechnung stellen wir uns hierbei typischerweise auf den Standpunkt, dass die Wahrscheinlichkeiten bekannt sind und fragen danach, was sich hieraus wie berechnen läßt, welche Formeln gelten usw. Die interessante Frage, wie aus zufälligen Beobachtungen (etwa verrauschten Messungen) auf den zugrunde liegenden Zufallsmechanismus zurückgeschlossen werden kann, untersuchen wir im nächsten Kapitel über Statistische Inferenz. Dass die Wahrscheinlichkeitstheorie eine solch hohe Bedeutung für die Datenanalyse und Statistik hat, liegt daran, dass der Statistiker durch zufällige Stichprobenziehungen oftmals in der Lage ist, die Voraussetzungen der wahrscheinlichkeitstheoretischen Modelle, Methoden und Ergebnisse exakt zu erfüllen und die resultierenden Beschreibungen und Analysen in vielen Gebieten eine unübertroffene Genauigkeit abliefern. Die wohl wichtigsten Kernergebnisse der Wahrscheinlichkeitstheorie, die sowohl von theoretischer Bedeutung als auch hohem praktischen Nutzen sind, stellen das Gesetz der Großen Zahlen und der Zentrale Grenzwertsatz dar. Das Gesetz der Großen Zahlen liefert den entscheidenden Zusammenhang zwischen relativen Häufigkeiten aus (langen) Beobachtungsreihen und theoretischen Wahrscheinlichkeiten. Insbesondere folgt hieraus gewissermaßen, dass man durch Statistik aus (in der Praxis endlichen) Stichproben verläßlich lernen kann. Der Zentrale Grenzwertsatz besagt anschaulich, dass eine Summe von (sehr vielen) zufälligen (numerischen) Größen, die in gleicher Weise streuen (so dass kein Summand dominiert), näherungsweise normalverteilt ist. Diese fundamentale Aussage erlaubt es, mit hoher Genauigkeit Fehlerwahrscheinlichkeiten zu approximieren und statistische Inferenz zu betreiben, solange man Summen (bzw. Mittelwerte) anstatt einzelne Beobachtungen nimmt.
Ansgar Steland

3. Schließende Statistik

Zusammenfassung
Die Grundaufgabe der schließenden Statistik ist es, basierend auf Stichprobendaten Aussagen über das zugrunde liegende Verteilungsmodell zu treffen. Häufig ist das Verteilungsmodell durch einen Parameter ϑ eindeutig parametrisiert. Dann interessieren vor allem Schätzungen für ϑ, Aussagen über die Schätzgenauigkeit und das Testen (Überprüfen) von Hypothesen über ϑ. Machen wir uns diese abstrakten Aussagen an einem Beispiel klar: Bei einer Umfrage unter n = 500 zufällig ausgewählten Käufern eines PKW stellt sich heraus, dass k = 400 mit dem Service zufrieden sind. Um zu klären, ob diese Zahlen „belastbar“ sind, müssen Antworten für die folgenden Fragen gefunden werden: 1. Ist der Anteil von kn = 80% zufriedener Käufer in der Stichprobe eine gute Schätzung für den unbekannten wahren Anteil in der Grungesamtheit aller Käufer? 2. Wie stark streut das Stichprobenergebnis überhaupt? 3. Wie kann objektiv nachgewiesen werden, dass der wahre Anteil zufriedener Käufer zumindest höher als (z. B.) 75% ist? Zur Beantwortung dieser Fragen muss zunächst ein geeignetes Verteilungsmodell für die Daten gefunden werden. Im eben diskutierten Beispiel ist dies die Binomialverteilung. Dann ist zu klären, wie im Rahmen des gewählten Verteilungsmodells geeignete Schätzungen für die interessierenden Größen – in unserem Beispiel ist dies der wahre Anteil p – gewonnen und hinsichtlich ihrer Güte (Qualität) bewertet werden können. Ferner wird ein geeignetes Konzept zur Überprüfung von relevanten Hypothesen durch empirisches Datenmaterial benötigt.
Ansgar Steland

Backmatter

Weitere Informationen

Premium Partner

    Bildnachweise