Skip to main content
main-content

Über dieses Buch

Dieses Buch basiert auf den zahlreichen Lehrveranstaltungen des Autors und bietet einen anwendungsorientierten Einstieg in die Methodenwelt der Statistik. Praxisnahe Übungen und Beispiele aus der Versicherungs- und Finanzwirtschaft motivieren die grundlegenden Verfahren und ihre detaillierte Darstellung. Relevante Merkmale von Datenverteilungen werden analysiert und nach einer elementaren Einführung in die Stochastik mit den wichtigsten Wahrscheinlichkeitsverteilungen in Beziehung gesetzt. So wird der enge Zusammenhang von Diagnose- und Prognoseverfahren deutlich. Das Werk diskutiert die Eigenschaften von Schätz- und Testverfahren. Verfahren zur Untersuchung des Zusammenhangs zwischen statistischen Merkmalen schließen die Darstellung ab. Zahlreiche Übungsaufgaben mit Lösungen helfen bei der aktiven Erprobung.

Inhaltsverzeichnis

Frontmatter

1. Warum an Statistik kein Weg vorbeiführt

Statistik begegnet uns in vielen Lebenslagen und kann überall dort eine wichtige Rolle spielen, wo Aussagen über Gruppen von Personen oder Mengen von Objekten oder Gegenständen gewonnen werden. Die deskriptive Statistik dient der Beschreibung, Ordnung und Darstellung großer Datenmengen. In der induktiven Statistik werden anhand von Teilmengen (Stichproben) mithilfe der Wahrscheinlichkeitsrechnung Schlüsse auf die Eigenschaften größerer Mengen (Gesamtheiten) gezogen.
Arnd Grimmer

2. Statistische Untersuchungen durchführen

Statistische Untersuchungen bestehen nur zum Teil in der Anwendung mathematischer Modelle und Berechnungsmethoden. Diese sind vielmehr eingebettet in einen Gesamtprozess, der mit der Festlegung des Untersuchungsauftrags und einer Gesamtplanung beginnt.Verschiedene Formen der Datenerhebung stellen das eigentliche Datenmaterial bereit, das nach Kontroll- und Bereinigungsschritten mit statistischen Methoden analysiert und verarbeitet wird. Den Abschluss bilden die Interpretation und eine geeignete Präsentation der Ergebnisse.
Arnd Grimmer

3. Einige Grundbegriffe

Die Grundbegriffe der Statistik werden eingeführt. Dazu gehören der Begriff der statistischen Gesamtheit als Menge der zu untersuchenden Objekte und Personen und demgegenüber der Begriff des Merkmalsträgers, aus denen sich statistische Gesamtheiten zusammensetzen. Merkmale sind die zu betrachtenden Eigenschaften. Sie dienen entweder der Abgrenzung von Objektmengen oder als inhaltliche Kriterien der Untersuchung. Die Messung von Merkmalen erfolgt anhand von Skalen, die über die weiterhin anwendbaren statistischen Verfahren entscheiden. Grundsätzlich ist zwischen qualitativen und quantitativen Merkmalen zu unterscheiden, die aber noch weiter differenziert werden können.
Arnd Grimmer

4. Beschreibende Statistik einzelner Merkmale

In den meisten Fällen lassen sich statistische Untersuchungen nicht auf einzelne Merkmale beschränken. Die isolierte Betrachtung einzelner Merkmale ist aber nicht nur weniger aufwendig, viele Methoden lassen sich außerdem mit geringen Veränderungen anwenden, wenn gleichzeitig mehrere Merkmale betrachtet werden sollen. Deswegen geht es in diesem Kapitel um die isolierte Betrachtung einzelner Merkmale.
Arnd Grimmer

5. Elementare Wahrscheinlichkeitsrechnung

Außerhalb der beschreibenden Statistik eröffnet sich der Bereich der Verallgemeinerungen und Prognosemodelle. Dort verlieren Aussagen ihren festliegenden Charakter und der Aspekt der Ungewissheit oder Unsicherheit tritt hinzu. Die Wahrscheinlichkeitsrechnung versucht, diese Ungewissheit berechenbar zu machen. Grundsätzlich existieren zwei Verfahrensklassen, um Wahrscheinlichkeitsmodelle einzuführen. Beim Ansatz „a priori“ werden anhand theoretischer Überlegungen Modelle entworfen. Das damit verbundene Problem, inwieweit die theoretischen Modelle zu realen Fragestellungen passen, entschärft der Ansatz „a posteriori“, bei dem Wahrscheinlichkeiten aus empirischen Versuchsreihen abgeleitet werden. Das Laplace-Modell wird als wichtigster apriori- Ansatz, die Ermittlung von Sterbetafeln als Anwendung des a-posteriori-Ansatzes vorgestellt. Anhand geometrischer Anschauung werden außerdem elementare Eigenschaften und Rechenregeln von Wahrscheinlichkeiten abgeleitet.
Die Einführung von Nebenbedingungen führen zum Konzept bedingter Wahrscheinlichkeiten. Demgegenüber steht der Begriff der Unabhängigkeit, wenn zwischen verschiedenen Vorgängen kein statistischer Einfluss gegeben ist. Abschließend wird das Verhältnis zwischen beschreibender und schließender Statistik noch einmal aus einem anderen Blickwinkel beleuchtet.
Zufallsvariablen sind ein wichtiges Instrument,umdie Berechnung von Wahrscheinlichkeiten systematischer zu gestalten. Aus dem Zusammenhang zwischen den Ausprägungen einer Zufallsvariable und Wahrscheinlichkeiten entsteht der Begriff der Wahrscheinlichkeitsverteilung. Analog zu Häufigkeitsverteilungen der beschreibenden Statistik können auch fürWahrscheinlichkeitsverteilungen Parameter definiertwerden; die wichtigste Rolle spielen Erwartungswert und Varianz bzw. Standardabweichung.
Arnd Grimmer

6. Diskrete Wahrscheinlichkeitsverteilungen

Ist der Wertebereich einer Zufallsvariable diskret, gilt gleiches für die dazu gehörende Wahrscheinlichkeitsverteilung. Anhand von Beispielen werden die wichtigsten Vertreter dieses Typs eingeführt, nämlich diskrete Gleichverteilung, Binomialverteilung, Hypergeometrische Verteilung und Poissonverteilung. Als verallgemeinerter Zugang werden Urnenmodelle beschrieben, außerdem Approximationsbedingungen, die den Übergang zwischen verschiedenen Verteilungen erlauben.
Arnd Grimmer

7. Stetige Wahrscheinlichkeitsverteilungen

In Fortführung der Überlegungen zur Klassifizierung von Daten stetiger Merkmale in der beschreibenden Statistik führen wir den Begriff der stetigen Zufallsvariablen und den stetigen Wahrscheinlichkeitsbegriff ein. Der Zusammenhang zwischen Wahr- scheinlichkeitsdichte und Verteilungsfunktion wird erläutert und es wird gezeigt, wie stetige Wahrscheinlichkeiten im Grundsatz berechnet werden. Als bedeutendste Beispiele stetiger Wahrscheinlichkeitsverteilungen lernen wir die stetige Gleichverteilung, die Gauß’sche Normalverteilung und diverse unsymmetrische Verteilungen wie die Exponentialverteilung und die Lognormalverteilung kennen.
Arnd Grimmer

8. Schätzverfahren für statistische Parameter

Die vollständige Untersuchung von Grundgesamtheiten anhand deskriptiver Verfahren stößt in der Praxis schnell an Grenzen. Die meisten Erhebungen, mit denen statistische Größen erfasst werden sollen, beschränken sich daher auf Teilgesamtheiten, sogenannte Stichproben. Dieses Kapitel handelt vom Grundprinzip des Schätzens, mit dem sich solche Stichprobeninformationen auf die übergeordnete Gesamtheit übertragen lassen. Das Prinzip wird für den einfachsten Anwendungsfall ausführlich vorgestellt, die Schät- zung von Prozentanteilen, wie sie in jeder Meinungsumfrage vorkommen. Die Methode wird dann auf die Fragestellung übertragen, den Durchschnittswert eines metrischen Merkmals zu schätzen.
Arnd Grimmer

9. Parametrische Testverfahren

Oftmals liegen bei schließenden Verfahren bereits Informationen vor, die als Hypothesen für Testverfahren verwendet werden können. Parametrische Testverfahren sind in direkter Ergänzung zu Schätzverfahren zu sehen und können bei allen statistischen Parametern zum Einsatz kommen, um zwischen konkurrierenden Hypothesen eine Entscheidung zu treffen. Bei allen Testverfahren sind dabei zwei konkurrierende Fehler zu kontrollieren, da sie sich auch irrtümlich für eine der beiden Hypothesen entscheiden können. Neben der konkreten Berechnung parametrischer Testverfahren erfolgen deshalb grundsätzliche Überlegungen zur Einschätzung der Güte dieser Verfahren.
Arnd Grimmer

10. Anpassungstests

Oftmals müssen empirisch erhobene Häufigkeitsverteilungen mit theoretischen Wahrscheinlichkeitsverteilungen auf Übereinstimmung geprüft werden. Das geschieht immer dann, wenn Erklärungsmodelle für zufallsabhängig erzeugte Daten benötigt werden. Aus der Vielzahl spezieller Anpassungstestverfahren wird beispielhaft der Chi- Quadrat-Anpassungstest behandelt.
Arnd Grimmer

11. Statistik zweier Merkmale

Größte Bedeutung hat die vergleichende Untersuchung mehrerer statistischer Merkmale, um Beziehungen und Abhängigkeiten zwischen ihnen aufzuspüren. Dabei können viele eindimensionale Verfahren weiterentwickelt werden. Mithilfe von Unabhängigkeitstests ist zunächst zu klären, ob zwischen verschiedenen Merkmalen überhaupt eine statistische Beziehung nachgewiesen werden kann. Anschließend ist die Intensität eines etwaigen Zusammenhangs zu bestimmen, was im Rahmen der Korrelationsrechnung geschieht. In Abhängigkeit vom Skalenniveau der verwendeten Daten kommen unterschiedliche Verfahren zum Einsatz, deren Prototypen jeweils vorgestellt werden. Abschließend wird mittels der Regressionsrechnung der Frage nach der Struktur oder einem möglichst geeigneten Erklärungsmodell für statistische Zusammenhänge nachgegangen.
Arnd Grimmer

Backmatter

Weitere Informationen

Premium Partner

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Wieviel digitale Transformation steckt im Informationsmanagement? Zum Zusammenspiel eines etablierten und eines neuen Managementkonzepts

Das Management des Digitalisierungsprozesses ist eine drängende Herausforderung für fast jedes Unternehmen. Ausgehend von drei aufeinander aufbauenden empirischen Untersuchungen lesen Sie hier, welche generellen Themenfelder und konkreten Aufgaben sich dem Management im Rahmen dieses Prozesses stellen. Erfahren Sie hier, warum das Management der digitalen Transformation als separates Konzept zum Informationsmanagement zu betrachten
und so auch organisatorisch separiert zu implementieren ist. Jetzt gratis downloaden!

Bildnachweise