Skip to main content
main-content

Über dieses Buch

​Wie funktioniert Stochastik, also das Zusammenspiel von Zufall, Daten und Modell? Wie kann von Daten auf ein erklärendes Modell geschlossen werden? Durch die digitale Datenverarbeitung und entsprechende Software werden viele Daten erzeugt aus denen man „per Knopfdruck“ Dinge herauslesen kann. Um aber Effekte und Gesetzmäßigkeiten in Daten mit zufälligem Anteil gesichert erkennen zu können, muß man verstehen, wie die Stochastik funktioniert und welche grundlegenden Prinzipien ihr zu Grunde liegen.

Allgemeinverständlich und anhand von Beispielen werden im Buch die beteiligten Komponenten Modell, Zufall und Daten ausführlich erklärt, und es wird gezeigt, wie der Schluss von den Daten auf das Modell erfolgen sollte. Die wichtigsten geschichtlichen Fakten runden diese spannende und formelfreie Reise zum (Un-)Wesen der Stochastik ab.

Inhaltsverzeichnis

Frontmatter

1. Einleitung

Zusammenfassung
Vor einigen Jahren war ich in Wien. Auf einer der bekanntesten Straßen, dem Graben, sprach mich ein junger Mann an: Er mache eine „Umfrage“ und wolle gern wissen, welches Sonnenöl ich benutze. Ich konnte ihm seinen Wunsch nicht erfüllen, denn ich verwende kein Sonnenöl und kenne diese Produkte gar nicht. Er erfasste mich unter der Rubrik „kein Sonnenöl“. Er war sympathisch, also fragte ich ihn, wozu er das denn wissen möchte. Er sei ein Student und solle für seine Abschlussarbeit eine „Umfrage“ durchführen, also Daten sammeln und auswerten, und auf diese Weise die Beliebtheit einiger bekannter Sonnenöl-Marken „messen“. Er wolle künftig in der Marktforschung arbeiten und brauche das Material für einen Abschluss im Fach Statistik. Ich setzte meinen Weg fort und kam zum Stephansdom. Dort sprach mich eine junge Frau an. Sie fragte, ob ich mir Fernsehsendungen über das Kochen anschaue und falls ja, welche. Leider konnte ich auch ihr nicht antworten, da ich kein sonderliches Interesse an solchen Sendungen habe. Auch sie war Studentin und brauchte diese Befragung für ihre Abschlussarbeit. Ich glaube, in Wien war es gerade Mode, dass die Studenten ihr Studium mit einer „Umfrage“ abschlossen. Dazu lernten sie Statistik, eigentlich schön, denn es ist mein Fach.
Gisela Härtler

2. Statistik – das ist ein weites Feld

Zusammenfassung
Bis ins späte 19. Jahrhundert verstand man unter dem Begriff „Statistik“ ausschließlich die beschreibende Statistik. Sie war ein Bestandteil der „Staatenkunde“. Im Brockhaus-Lexikon von 1819 [2] heißt es zum Begriff Statistik: Zwei große Kreise bilden den Umfang der geschichtlichen Wissenschaften. Der Kreis der Vergangenheit und der Kreis der Gegenwart…. Von jenen beiden Kreisen der Zeit aber wird der Kreis der Vergangenheit durch die Geschichte, der Kreis der Gegenwart durch die Statistik und Geographie dargestellt. Diese Statistik, die man einst Teil der „Wissenschaft über die Gegenwart“ nannte, bezeichnen wir heute als „beschreibende Statistik“ und verstehen darunter meistens die amtliche Statistik. Nationale und internationale Institutionen sammeln Daten über Bevölkerung, Wirtschaft, Politik, Geographie usw. Diese Daten sollen den gegenwärtigen Zustand der Gesellschaft, des Landes u. ä. möglichst vollständig beschreiben. Die dabei entstehenden Tabellen und Diagramme selbst werden auch Statistiken genannt und beziehen sich immer auf die ihnen zu Grunde liegende reale Gesamtheit. Städte ermitteln z. B. das Alter aller Einwohner, meistens unterteilt in Altersgruppen. Deutschland ermittelt z. B. die gesamte Stromerzeugung, unterteilt nach Energieträgern. Alles das sind Statistiken. Viele Menschen, einfache Bürger, aber auch Personen, die sich gern öffentlich äußern, verstehen unter dem Begriff „Statistik“ ausschließlich solche Datensammlungen, also Ergebnisse der beschreibenden Statistik.
Gisela Härtler

3. Was und wie die „beschreibende Statistik“ beschreibt

Zusammenfassung
Fast alles, was von allgemeinem Interesse ist, wird irgendwo statistisch erfasst und dokumentiert. In fast jedem Land gibt es zentrale statistische Ämter, diese zählen die Einwohner, ermitteln ihr Alter, ihre Einkommen, die Haushaltsgrößen usw. Andere erfassen Fahrgastzahlen, Verspätungen der Bahn, Stromausfälle, Krankheiten. Die durchschnittlichen Lebenshaltungskosten werden mit Hilfe eines typischen „Warenkorbs“ geschätzt. Um derartige Statistiken zu erstellen, werden in einem ersten Schritt die Rohdaten erfasst und gespeichert. Diese beruhen auf einer genauen Definition des interessierenden Objekts und der dabei interessierenden Merkmale. Dann wird die jeweilige Anzahl ermittelt, mit der jedes spezielle Merkmal in der Gesamtheit vorkommt. Erfasst man z. B. das Merkmal „Familieneinkommen“ für das Objekt „Bewohner des Dorfes X“, so muss klar zu erkennen sein, um welches Dorf es sich handelt, wie viele Einwohner es hat und in wie vielen Familien sie leben. Dann werden die Familieneinkommen ermittelt, z. B. in Klassen, die nach der Einkommenshöhe gebildet sind. Das sind die Rohdaten, die in einer Datei gespeichert werden. Man weiß danach u. a., wie viele Familien es gibt und wie viele davon jeder der Einkommensklassen angehören, z. B. der zwischen 1000 und 1500 € monatlich. Solche Daten werden für verschiedene Zwecke gebraucht. Anders als früher hat heute jeder Bürger (er sollte es eigentlich haben) das Recht, solche Daten einzusehen. Es ist auch deshalb wichtig, die Daten so aufzubereiten, dass ihr Inhalt von jedermann richtig erkannt und verstanden werden kann; das Ergebnis soll richtig, klar und allgemeinverständlich sein. Dazu gibt es viele Möglichkeiten. Zwei Beispiele haben wir schon kennen gelernt: Abb. 3.1 zeigt links ein Histogramm, das die Anzahl aller Befragten angibt, die das gleiche Sonnenöl bevorzugen, Abb. 2.3 ist ein Diagramm, das die beobachteten Werte der Durchmesser und Umfänge der verschiedenen Kreise als Punkte in einem 2-dimensionalen Koordinatensystem darstellt.
Gisela Härtler

4. Stochastik oder die „Kunst des Ratens“

Zusammenfassung
Die Wahrscheinlichkeitsrechnung hat sich in der zweiten Hälfte des 19. Jahrhunderts beträchtlich entwickelt. In vielen Fällen konnte man nun die Wahrscheinlichkeitsverteilung eines zufälligen Ereignisses aus einigen Annahmen herleiten. Dadurch wurde es möglich, auszurechnen, mit welcher Wahrscheinlichkeit ein solches Ereignis in einer Stichprobe bestimmten Umfangs zu beobachten ist. Man verstand es auch immer besser, von einem Wahrscheinlichkeitsmodell auf die zu erwartenden Stichprobenergebnisse zu schließen. Zur etwa selben Zeit begannen viele Wissensgebiete, sich mit Massenerscheinungen, zufälligen Ereignissen und Wahrscheinlichkeiten auseinander zu setzen. So konnte auch die Physik einige physikalische Vorgänge mit Hilfe von Wahrscheinlichkeiten beschreiben, z. B. in der kinetischen Gastheorie die Geschwindigkeiten der einzelnen Gasmoleküle in einem geschlossenen Gefäß durch die Boltzmann–Maxwell–Verteilung. Daraus ließen sich viele Eigenschaften von Gasen ableiten und erklären.
Gisela Härtler

5. Die Quellen unseres Wissens sind Beobachtung und Theorie

Zusammenfassung
Unser heutiges Wissen ist das Ergebnis einer Jahrtausende alten sich fortsetzenden Folge von Beobachtungen und Theorien. Das zeigt sich deutlich in der Entwicklung der Naturwissenschaften. Unser gegenwärtiger Alltag ist fast überall durch die Technik geprägt, deren Möglichkeiten sich der moderne Mensch in wachsendem Maße zunutze gemacht hat. Dieser hohe Stand der Technik beruht auf den Erkenntnissen der Naturwissenschaften, die unbestreitbar einen sehr hohen Entwicklungsstand erreicht haben. Wie aber werden das unsere Nachkommen in 500 Jahren sehen? Dass die technischen Anwendungen der Naturwissenschaften funktionieren, ist ein Ausdruck dafür, dass unsere theoretischen Erklärungen im Großen und Ganzen richtig sind und die Naturwissenschaften eine gewisse Reife erlangt haben. Aber das ist sicher nicht das Ende der Entwicklung. Wer hätte vor 100 Jahren die digitale Revolution für möglich gehalten? Wer hätte gedacht, dass es Satelliten und Raumstationen geben wird? Hätte man sich das Genom vorstellen können? Und gar seine Entschlüsselung? Die Möglichkeit, das Licht ferner Himmelskörper zu analysieren? Die Identifikation von Elementarteilchen als Basis von Energie und Materie? Das Funktionieren der Technik in unserem Alltag mag die Bestätigung der naturwissenschaftlichen Theorien sein, aber sind sie deshalb wahr und unveränderlich? Wäre es so, würde das bedeuten, dass wir am Ende der Entwicklung angelangt sind. Das ist sicher nicht der Fall. Die Naturwissenschaften werden sich weiter entwickelten. Das geschah bisher durch den ständigen Wechsel von Beobachtungen und Theorien und das wird auch weiter so sein. Dadurch wächst stets die Komplexität des Theoriegebäudes. Vieles passt zu irgendeinem Zeitpunkt nicht mehr zusammen. Man trifft andere Annahmen, macht neue Beobachtungen, füllt die entstandenen theoretische Lücken und prüft, ob das Neue irgendwo in logische Widersprüche zur existierenden Theorie oder zu den bisher bekannten experimentellen Ergebnissen gerät. Widersprüche zu benachbarten oder vorhergehenden Theorien entstehen. Die Beobachtungsmöglichkeiten werden besser, die Messungen genauer und es werden Beobachtungen gemacht, die durch die existierende Theorie gar nicht oder nicht ganz erklärt werden können. Man bestätigt und widerlegt die existierenden Theorien durch neue Experimente. Das „Gesamtwissen“ wird immer komplexer und im Einzelnen immer weniger durch- bzw. überschaubar. Man sucht heute nach einer Gesamttheorie und ihren Grundlagen. Das zeigt das Erscheinen vieler allgemeinverständlicher Bücher mit Titeln wie „Auf dem Weg zur Weltformel“ [2] oder „Wie klein ist klein?“ [3]. Es gibt ein Für und Wider sehr komplizierter mathematisch formulierter Theorien und Ergebnisse, sehr genauer und ebenfalls komplizierter Experimente, die sehr hohe Anforderungen an die Messtechnik und die Planung der Versuche stellen. Die Datenauswertung jedoch braucht immer die schließende Statistik bzw. die Stochastik.
Gisela Härtler

6. Der Zufall

Zusammenfassung
„Ich glaube nicht an den Zufall“ sagte der Kunde und kaufte sich einen Lottoschein. – Das ist ein typisches Beispiel für die zwiespältige Haltung vieler Menschen zum Zufall. Die Methoden der Stochastik beruhen prinzipiell und durchweg auf der Beobachtung zufälliger Größen. Was haben wir dabei unter dem Begriff Zufall verstehen? Lambert Adpolph Jaques Quételet (1796–1847, belgischer Astronom und Statistiker) schrieb darüber: „Zufall, jenes mysteriöse, viel missbrauchte Wort, ist nichts anderes als eine Verschleierung unseres Unwissens.“ Diese Ansicht verbannt alles Geheimnisvolle aus dem Begriff Zufall und erlaubt es, mit dem Zufall unbefangen und sachlich umzugehen. Wir schließen uns dieser Ansicht an.
Gisela Härtler

7. Was ist „Wahrscheinlichkeit“?

Zusammenfassung
Erinnern wir uns an den Parkplatz und die zufällige Anzahl von Autos, die dort parkt. Manchmal ist dieser Parkplatz vollständig besetzt und manchmal nicht. Wie groß ist die Wahrscheinlichkeit dafür, dass er besetzt ist, und zwar an einem Werktag vormittags? Wie groß an einem Sonntag spät abends? Der Parkplatz kann 15 Autos aufnehmen. Die Zahl, um die es dabei geht, ist die zufällige Anzahl der Autos zum interessierenden Zeitpunkt. Die Zahl, deren Wahrscheinlichkeit mich interessiert, ist die Zahl 15. Es ist die maximal mögliche Anzahl. Die Wahrscheinlichkeit des Wertes 15 ist das Maß für meine Chance (eigentlich für mein Pech), keinen Platz mehr zu finden. Dazu stelle ich mir etwa folgendes vor: Ich wollte sehr oft zu einem vergleichbaren Zeitpunkt dort parken (fast unendlich oft) und es gab eine gewisse Anzahl vergeblicher Versuche, weil der Parkplatz besetzt war. Daraus kann ich die relative Häufigkeit der vergeblichen Versuche ausrechnen. War es beispielsweise die Hälfte aller Versuche, dann ist die relative Häufigkeit 0,5 bzw. 50 % aller Versuche.
Gisela Härtler

8. Die Wahrscheinlichkeiten von zusammengesetzten zufälligen Ereignissen

Zusammenfassung
Um die Wahrscheinlichkeit für verknüpfte zufällige Ereignisse zu berechnen, braucht man meistens nur wenige Grundregeln. Diese allein genügen, um eine schier unerschöpfliche Vielfalt von Wahrscheinlichkeitsmodellen zu erzeugen. Die einfachsten Regeln wollen wir uns nun anschauen.
Gisela Härtler

9. Wahrscheinlichkeitsmodelle

Zusammenfassung
Im vorangegangenen Kapitel haben wir gesehen, wie das mehrfache Wiederholen eines sehr einfachen zufälligen Experiments, nämlich das Ziehen einer Kugel aus einer Urne, in der sich nur rote und weiße Kugeln befinden, zu einer sehr großen Zahl möglicher Kombinationen der Anzahl „roter“ und „weißer“ Kugeln führt. So entsteht die Wahrscheinlichkeitsverteilung für die Anzahl roter Kugeln in diesem Experiment, sie heißt Binomialverteilung.
Gisela Härtler

10. Einige Wahrscheinlichkeitsverteilungen

Zusammenfassung
Beim Würfeln mit einem idealen Würfel sind alle sechs Augenzahlen gleich wahrscheinlich und haben den Wert 1/6. Eine solche Wahrscheinlichkeitsverteilung heißt Gleichverteilung oder gleichmäßige Verteilung. Sie ist in Abb. 10.1 dargestellt. Alle ihre Eigenschaften sind durch den Begriff „Gleichverteilung“ und durch die entsprechende Wahrscheinlichkeit, hier 1/6, ausgedrückt.
Gisela Härtler

11. Die Normalverteilung

Zusammenfassung
Die Normalverteilung ist wohl das bekannteste und am häufigsten angewendete Wahrscheinlichkeitsmodell. Manche halten es für das universelle Gesetz des Zufalls, was aber in dieser Absolutheit nicht stimmt. Man nennt die Normalverteilung auch Glockenkurve, denn die Wahrscheinlichkeitsdichte hat die Form einer Glocke, oder man nennt sie Gaußverteilung, weil sie auf Carl Friedrich Gauß (1777–1855) zurückgehen soll. Eine zufällige Größe, die einer Normalverteilung folgt, ist kontinuierlich. Sie kann alle Werte zwischen −∞ und +∞ annehmen. Die Verteilung hängt von nur zwei Parametern ab: dem Erwartungswert (Mittelwert), einem Lageparameter, der ihre Lage auf der Achse der zufälligen Veränderlichen anzeigt, und der Varianz (Streuung), einem Skalenparameter, dessen Quadratwurzel (die Standardabweichung) die Breite der Verteilung anzeigt.
Gisela Härtler

12. Was nun die Daten betrifft

Zusammenfassung
Die Daten sind die einzige Informationsquelle, die Auskunft über das Wahrscheinlichkeitsmodell und die unbekannten Parameter geben kann. Ohne die Ergebnisse der Beobachtung, Zählung oder Messung und der anschließenden Registrierung der Häufigkeiten der verschiedenen ermittelten Werte gelingt es nur in Ausnahmefällen (Würfeln, Münzwurf,…), ein Wahrscheinlichkeitsmodell zu formulieren, dessen Parameter bekannt sind. Auch die Eignung eines vorausgesetzten Modells lässt sich ohne Daten nicht prüfen. In Ausnahmefällen kann es auch notwendig sein, zu prüfen, ob ein Würfel gefälscht ist oder die Durchmischung der Kugeln vor der Ziehung der Lottozahlen ausreicht. Dazu braucht man ebenfalls Beobachtungswerte. In seriösen Spielbanken ist es üblich, die Zufälligkeit der Ergebnisse des Roulettes zu prüfen, indem man die Resultate der zurückliegenden Spiele speichert und die entsprechend langen Folgen auf ihre Zufälligkeit hin testet. Beim Roulette gibt es 18 rote und 20 schwarze Fächer, bei jedem Spiel muss die Kugel in eines davon rollen. Für jedes Fach gilt folglich die Wahrscheinlichkeit 1/38. Alle Fächer haben nur dann die gleiche Wahrscheinlichkeit, wenn das Gerät in Ordnung ist. Man prüft mit den registrierten Daten in bestimmten Zeitabständen, ob die relativen Häufigkeiten der Ergebnisse in den verschiedenen Fächern mit der theoretischen Wahrscheinlichkeit 1/38 verträglich sind. In vielen anderen praktischen Fällen setzt man die Gültigkeit eines Wahrscheinlichkeitsmodells nur voraus und schätzt anschließend dessen Parameter. Ob das so gewonnene Ergebnis sinnvoll ist oder nicht, hängt, neben der Eignung des Wahrscheinlichkeitsmodells auch entscheidend davon ab, wie die Daten gewonnen werden, welche Zusammensetzung die Stichprobe hat, wie groß die Zahl der Daten ist (also der Stichprobenumfang) und ob die Daten zufällig und voneinander unabhängig sind.
Gisela Härtler

13. Der Schluss vom Wahrscheinlichkeitsmodell auf die Daten

Zusammenfassung
Ist das Wahrscheinlichkeitsmodell vollständig bekannt, d.h. der Verteilungstyp trifft zu und die Werte aller Parameter stehen fest, dann lässt sich die Wahrscheinlichkeit jedes einzelnen möglichen zufälligen Ereignisses angeben. Das zeigt als Beispiel die Abb. 10.3. Das Wahrscheinlichkeitsmodell ist eine Binomialverteilung mit der Grundwahrscheinlichkeit 0,01 und dem Stichprobenumfang 10. Durch diese Angaben kennen wir die Wahrscheinlichkeiten dafür, dass unser Student in einer Stichprobe von 10 Befragungen auf eine jede der möglichen Anzahlen von Sonnenöl-Ignoranten trifft. Das konnten wir nur deshalb ausrechnen, weil wir bereits wussten, dass die Grundwahrscheinlichkeit 0,01 ist, d.h. im Mittel eine Person unter 100. Es ist ein Schluss vom Modell auf die Daten. In der Regel kennt man diese Wahrscheinlichkeiten jedoch nicht. Im Geiger-Rutherford-Experiment war die Situation etwas anders. Abb. 10.7 zeigt die beobachtete Anzhl von α-Teilchen in den untersuchten Zeitintervallen. In ihrem Experiment haben Geiger und Rutherford die mittlere Zerfallsrate von 3,732 Teilchen pro 7,5 s gefunden. Vor dem Experiment kannten sie diese Zahl nicht. Aus physikalischen Gründen wussten sie aber, dass die Zerfallsrate konstant ist und dass deshalb die Poisson-Verteilung für die Anzahl der α-Zerfälle in gleich langen Zeitintervallen gilt. Das Experiment lieferte ihnen nur eine Punktschätzung der gesuchten mittleren Zerfallsrate pro Sekunde. Im nächsten Experiment hätten sie vermutlich einen etwas anderen Wert gefunden. Das ist der Schluss von den Daten auf das Modell. In diesem Falle stand fest, dass das Modell eine Poisson-Verteilung sein muss, denn die Zerfallsrate ist konstant, d.h. von der Zeit unabhängig. In vielen Experimenten ist auch das geeignete Modell völlig unbekannt.
Gisela Härtler

14. Der Schluss von den Daten auf das Wahrscheinlichkeitsmodell

Zusammenfassung
Die Stochastik liefert quantitatives empirisches Wissen, das auf den beobachteten Häufigkeiten der interessierenden Merkmale in einer Stichprobe beruht und das deshalb vom Zufall beeinflusst ist. Noch vor etwa 50 Jahren nannte man statistische Untersuchungen meistens Häufigkeitsanalysen. Dieser Begriff ist anschaulich, denn das Wesentliche sind die Häufigkeitsverteilungen der beobachteten zufälligen Größen. Sie sind so etwas wie eine „Fährte“, ein „Fußabdruck“ oder der „Schattenwurf“ der geltenden Wahrscheinlichkeitsverteilung. Die Resultate statistischer Schlüsse sind nie genau, sie liefern nur Bereiche, in welchen das „wahre“ Ergebnis zwar mit einer festgelegten statistischen Sicherheit enthalten ist, es aber mit der entsprechenden Irrtumswahrscheinlichkeit auch verfehlen kann.
Gisela Härtler

15. Der Einfluss des Stichprobenumfangs

Zusammenfassung
Die Unsicherheit eines mit Hilfe der Stochastik gewonnenen Resultats drückt sich in der Breite des Vertrauensbereichs einer Schätzung oder des kritischen Bereichs (Annahmebereichs) eines Tests aus. Sie hängt vom Stichprobenumfang ab, denn in allen Fällen wirkt das universelle „Gesetz der großen Zahl“. Ist die Anzahl der Beobachtungswerte zu klein, so kann dieser Bereich so breit werden, dass das Resultat nicht brauchbar ist. Das gilt für alle Parameter, die man schätzen oder testen kann, ob es sich nun um Wahrscheinlichkeiten, Mittelwerte, Streuungen, Korrelationskoeffizienten oder irgendeinen anderen Parameter handelt. Man braucht stets möglichst große Stichproben. Dagegen spricht aber, dass es in vielen Fällen schwierig ist, zu Beobachtungswerten zu gelangen, oder dass bereits die Gewinnung eines einzelnen Beobachtungswertes ziemlich teuer ist. Denken wir an die Ermittlung des Ausfallzeitpunkts einer einwandfrei und stabil arbeitenden technischen Komponente. Dazu braucht man eine lang andauernde Beobachtung unter konstanter Belastung und es ist nicht einmal sicher, ob sich während der maximal möglichen Prüfdauer überhaupt ein Ausfall ereignet.
Gisela Härtler

16. Die Anwendungen der Stochastik sind zahlreich und nehmen weiter zu

Zusammenfassung
Die Stochastik stützt sich in allen ihren Anwendungen auf das gleiche Gedankengebäude. Es geht um den Schluss von Daten auf ein Wahrscheinlichkeitsmodell. Weil sie aber in sehr unterschiedlichen Wissensgebieten angewendet wird, sieht man sie auch aus sehr unterschiedlichen Perspektiven. Die verschiedenartigen Anwendungen haben manchmal sogar spezielle Methoden hervorgebracht. Auch die Ausdrucksweise hat sich dem speziellen Anwendungsbereich manchmal so gut angepasst, dass so etwas wie „fachspezifische Dialekte“ der allgemeinen Fachsprache entstanden sind. Es ist heute ohne weiteres möglich, dass jemand auf dem Gebiet der statistischen Qualitätskontrolle arbeitet und ein anderer in einer landwirtschaftlichen Versuchsanstalt, dass beide ganz ähnliche Methoden anwenden, sich aber sehr unterschiedlich ausdrücken.
Gisela Härtler

17. Fazit

Zusammenfassung
Die beschreibende Statistik gab es schon in der sehr weit zurückliegenden Vergangenheit, wie aufgefundene Relikte und Schriften zeigen. Die mathematische Statistik entwickelte sich im 19. Jahrhundert und nahm im 20. einen enormen Aufschwung. In dieser Zeit wurden die bekanntesten und wichtigsten Methoden entwickelt. Heute wird sie durch die Möglichkeiten der Informatik enorm befruchtet und erfährt durch die häufig zur Verfügung stehenden großen Datenmengen eine neue Ausrichtung. Das Gedankengebäude der mathematischen Statistik bzw. der Stochastik beruht auf dem Gesetz der großen Zahl, einem universell geltenden Gesetz. Dieses liegt allen der sehr unterschiedlich erscheinenden statistischen Methoden zu Grunde. Das Anwendungsgebiet der statistischen Methoden ist breit, sowohl die Wiener Studenten mit der beabsichtigten Marktforschung als auch das CERN in Genf mit dem Nachweis des Higgs Bosons wenden sie an. Trotz der vielen Erfolge gibt und gab es immer wieder Vorurteile gegenüber statistisch gewonnenen Einsichten. Sie werden hauptsächlich durch die Unbestimmtheit ihrer Ergebnisse, also durch die in ihnen steckende unangenehme „Zufälligkeit“ genährt.
Gisela Härtler

Backmatter

Weitere Informationen

Premium Partner

    Bildnachweise