Skip to main content

2024 | Buch

Stochastische Risikomodellierung und statistische Methoden

Angewandte Stochastik für die aktuarielle Praxis

verfasst von: Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch

Verlag: Springer Berlin Heidelberg

Buchreihe : Statistik und ihre Anwendungen

insite
SUCHEN

Über dieses Buch

Dieses Buch vereinigt Konzepte und Methoden der stochastischen Modellbildung, der statistischen Analyse und der aktuariellen Anwendung in einem Band.

Dabei wird eine kompakte, aber dennoch für Theoretiker wie Praktiker verständliche und interessante Darstellung der Themen Risikobewertung, Datenanalyse, Parameterschätzung, verallgemeinerte lineare Regression, stochastische Prozesse und Differenzialrechnung, Zeitreihen, biometrische Modelle, Credibility sowie Simulation gegeben.

Zahlreiche Beispiele illustrieren die Anwendung der Konzepte in der aktuariellen Praxis, wobei auf Modelle aus der Personen- und Sachversicherung und der Finanzmathematik eingegangen wird.

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Quantifizierung und Bewertung von Risiken
Zusammenfassung
Zufallsvariablen und ihre Verteilungen bilden eine wesentliche Grundlage aller praxisrelevanten stochastischen Modelle und statistischen Analysen. Auf Grundlage der Modelle werden die Risiken quantifiziert, als Risikomaße werden der Value at Risk und der Expected Shortfall eingeführt. Für die korrekte Einschätzung mehrerer Risiken ist die Kenntnis ihrer Abhängigkeiten notwendig. Deren Modellierung kann mit Hilfe von Copulas geschehen.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Kapitel 2. Deskriptive Statistik und explorative Datenanalyse
Zusammenfassung
Die statistische Datenanalyse ist heute eine Kernaufgabe im aktuariellen Umfeld. Die Arbeit mit zum Teil sehr großen Datenmengen und der Einsatz spezieller Software zur Datenanalyse sind im beruflichen Alltag zu Grundkompetenzen geworden. Mittels deskriptiver und explorativer Verfahren werden Datensätze systematisch untersucht, durch Kennzahlen beschrieben und durch grafische Darstellungen charakterisiert. Die Methoden der deskriptiven Statistik und der explorativen Datenanalyse stehen oft am Beginn von weiterführenden, induktiven Verfahren, wie z. B. der statistischen Modellbildung. Deskriptive und explorative Verfahren der Statistik sind in der Regel der erste Schritt, um einen Datensatz zu beschreiben und inhaltlich kennenzulernen. Diese Methoden werden aber auch unterstützend innerhalb von induktiven statistischen Verfahren verwendet. Am Ende einer statistischen Modellbildung steht z. B. in der Regel die Überprüfung der Modellvoraussetzungen und die Beurteilung der Modellgüte, wobei oft wieder deskriptive und explorative Verfahren zum Einsatz kommen. Ein wichtiger Grund für die heute weit verbreitete Anwendung von deskriptiver Statistik und explorativer Datenanalyse sind sicher die damit einhergehenden, großen Entwicklungen in der Datenverarbeitung, in der Datenverfügbarkeit und bei statistischen Analysesoftwaresystemen.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Kapitel 3. Punktschätzung
Zusammenfassung
Im Folgenden untersuchen wir Verfahren mit denen man aufgrund von Ergebnissen eines Zufallsexperiments Rückschlüsse auf die zugrunde liegende Verteilung ziehen kann. Die in Frage kommenden Verteilungen werden durch geeignete Wahrscheinlichkeitsmaße beschrieben, die von Parametern abhängen, die aus einer Stichprobe geschätzt werden. In diesem Kapitel stellen wir insbesondere die Konsistenz und die asymptotische Normalverteilung von Maximum Likelihood Schätzern dar, die man beispielsweise für die Herleitung von Konfidenzintervallen benötigt. Mit Bootstrap-Verfahren können Eigenschaften von Schätzern mit Simulationstechniken untersucht werden.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Kapitel 4. Hypothesentests
Zusammenfassung
Hypothesentests bilden einen der Kernbereiche der Statistik. Zunächst werden einige grundlegende Begriffe der Testtheorie wiederholt. Für Parametertests bei Normalverteilungsannahme wird der Stichprobenumfang untersucht, der notwendig ist, um vorgegebene Schranken für den Fehler zweiter Art einzuhalten. Für die Situation in der nicht die Normalverteilung vorliegt, wird der Likelihood Quotienten Test beschrieben. Abschließend werden nicht parametrische Verfahren dargestellt.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Kapitel 5. Lineare und verallgemeinerte lineare Regression
Zusammenfassung
Regression  stellt das klassische Instrument der Statistik dar, um eine beobachtete abhängige Variable durch Kovariaten zu modellieren. In linearen Modellen werden die Kovariaten in einer Designmatrix zusammengeführt, mit der die Regressionsgleichung formuliert wird. Klassische lineare Modelle gehen dabei, bis auf eine ggf. vorgegebene Gewichtung, von einer für alle Beobachtungen einheitlichen Varianz aus. Die Parameterschätzung kann durch die Methode der kleinsten Quadrate bzw. mit der Maximum-Likelihood-Methode unter Normalverteilungsannahme erfolgen. Verallgemeinerte lineare Modelle erlauben den flexibleren Ansatz einer Varianz, die Funktion des Erwartungswerts der abhängigen Variable ist, und vermeiden die Normalverteilungsannahme. Die wesentlichen Schritte der Modellanpassung sind eine explorative Analyse zur Identifikation der Varianzfunktion, die Maximum-Likelihood-Schätzung der Parameter und die Analyse der Residuen. Verallgemeinerte lineare Modelle stellen aufgrund ihrer hohen Flexibilität aktuell das Standardmodell in der Tarifkalkulation dar, können aber auch für zahlreiche andere Fragestellungen aus der aktuariellen Praxis genutzt werden.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Kapitel 6. Stochastische Prozesse und Modelle
Zusammenfassung
Um die Dynamik von Zufallsvariablen im Zeitverlauf zu modellieren, bedient man sich stochastischer Prozesse. Endliche Markov-Ketten und endliche Markov-Prozesse sind stochastische Prozesse in einem endlichen Zustandsraum und diskreter bzw. stetiger Zeit, welche durch die Eigenschaft der Gedächtnislosigkeit charakterisiert sind. Bestimmend für deren Langzeitverhalten sind die Eigenwerte der zugehörigen Übergangs- bzw. Fundamentalmatrizen. Mit allgemeinen (nicht notwendigerweise endlichen) Markov-Prozessen verfügt man über eine Klasse von stochastischen Prozessen, die mit dem Wiener-Prozess, der Brownsche Bewegung mit Drift, dem Poisson-Prozess sowie dem zusammengesetzten Poisson-Prozess wichtige Modellansätze für die aktuarielle und finanzmathematische Anwendung umfasst. In diesem Kontext stellt sich insbesondere die Frage nach Ruinwahrscheinlichkeiten in Markov-Prozessen. Diese kann aus einer fundamentalen Grenzwertbeziehung abgeleitet werden und besitzt im Fall der Brownschen Bewegung mit Drift eine explizite Darstellung bzw. im Fall des zusammengesetzten Poisson-Prozesses eine Reihendarstellung.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Kapitel 7. Stochastische Differenzialrechnung
Zusammenfassung
Die stochastische Differenzialrechnung und stochastische Differenzialgleichungen stellen das Fundament der Modellierung zeitabhängiger Prozesse insbesondere in der modernen Finanzmathematik dar. Pricing-Modelle für Finanzinstrumente und die Modellierung von Kapitalmärkten sind ohne stochastische Differenzialgleichungen kaum mehr denkbar. Vor diesem Hintergrund werden in diesem Kapitel in einer kompakten Weise die Grundlagen der stochastischen Differenzialrechnung dargestellt, beginnend mit dem Wiener-Prozess, der Definition des stochastischen Integrals nach Itô sowie seinen Rechenregeln, insbesondere der berühmten Itô-Formel. Darauf aufbauend werden stochastische Differenzialgleichungen betrachtet und verschiedene analytische Lösungsstrategien vorgestellt. Sind analytische Lösungsverfahren nicht möglich, so kann auf Simulationsmethoden zurückgegriffen werden, deren Darstellung das vorliegende Kapitel abrundet.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Kapitel 8. Zeitreihenanalyse
Zusammenfassung
Zeitreihen kommen in vielen wissenschaftlichen Disziplinen und praktischen Anwendungen vor, nämlich immer dann, wenn Daten in einer zeitlichen Abfolge erhoben werden. Beispiele sind meteorologische Daten (Temperatur, Luftfeuchte, Regenmenge, Sonneneinstrahlung), Luftqualitätsdaten (Stickoxide, Feinstaub), Finanzdaten (Aktienkurse, Wechselkurse), Lagerbestände, Produktnachfragen, Preise (Weizenpreis, Ölpreis, Kaffeepreis), Sensordaten für vorausschauende Wartung (predictive maintenance, frühzeitige Erkennung von zukünftigen Defekten und Anomalien), Stromverbrauch, oder auch medizinische Daten (Blutdruck, Blutzucker) und versicherungsmathematische Daten (Sterblichkeit). Die Auflösung der Daten kann dabei ganz unterschiedlich sein. Die Daten können im Abstand von Sekundenbruchteilen gemessen werden (z. B. Hochfrequenz-Finanzdaten), aber auch täglich, monatlich oder jährlich. Neben der deskriptiven Beschreibung und grafischen Darstellung des zeitlichen Verlaufs ist man interessiert an der Erkennung von Mustern im Zeitverlauf, z. B. Trends und periodischen Schwankungen. Diese Muster und die angenommene Abhängigkeit der Beobachtungen soll dann eine Prognose für zukünftige Beobachtungen ermöglichen.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Kapitel 9. Biometrie
Zusammenfassung
Biometrische Rechnungsgrundlagen spielen für die Bewertung von Versicherungsleistungen im Bereich der Personenversicherung eine wesentliche Rolle. Es werden die einzelnen Schritte zur Erstellung biometrischer Rechnungsgrundlagen dargestellt. Zunächst werden Methoden zur Bestimmung von rohen Ausscheidewahrscheinlichkeiten vorgestellt, sodann Ausgleichsverfahren für deren Glättung. Die zukünftigen Änderungen werden mit Hilfe von Trends berücksichtigt. Mit statistischen Tests kann man überprüfen, ob vorgegebene Rechnungsgrundlagen zu einem gegebenen Bestand passen und angemessen sind. Schließlich werden Verfahren dargestellt, um Sicherheiten auf Ebene der Ausscheidewahrscheinlichkeiten oder der Bewertung einzubeziehen.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Kapitel 10. Credibility-Modelle
Zusammenfassung
Credibility-Modelle werden in der Versicherungsmathematik überall dort eingesetzt, wo keine „Massendaten“ vorliegen (die z. B. eine Behandlung mit Methoden der Regressionsanalyse erlauben), sondern Risiken mit sehr individuellen, zum Teil nicht direkt beobachtbaren Risikomerkmalen. Diese Risikomerkmale werden in Form eines zufälligen Strukturparameters beschrieben. Im Bayes’schen Modell wird eine a-priori-Einschätzung der Verteilung des Strukturparameters durch Schadenbeobachtungen zu einer a-posteriori-Einschätzung verfeinert, auf deren Basis die sogenannte Credibility-Prämie für das betrachtete Risiko abgeleitet wird. Demgegenüber verfolgt das Bühlmann-Straub-Modell einen verteilungsfreien Ansatz, der das Einzelrisiko eingebettet in einen Gesamtbestand betrachtet, dessen Schadenerwartungswert E(X) ist. Das Modell führt eine angemessene Gewichtung des Schadenerwartungswerts E(X) und des am individuellen Risiko beobachteten mittleren Schadens \(\overline{X}\) herbei. Das Bindeglied zwischen den beiden Modellansätzen stellt die sogenannte linearisierte Credibility-Prämie dar.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Kapitel 11. Simulation
Zusammenfassung
Zunächst werden Methoden zur Erzeugung von Zufallszahlen, die auf dem Intervall (0, 1) gleichverteilt sind, dargestellt. Daraus können mit der Inversionsmethode und dem Verwerfungsverfahren prinzipiell Zufallszahlen für jede andere Verteilung generiert werden. Für einige Verteilungen gibt es leistungsfähigere Verfahren, die auf speziellen Eigenschaften der jeweiligen Verteilungen beruhen.
Torsten Becker, Richard Herrmann, Christian Heumann, Stefan Pilz, Viktor Sandor, Dominik Schäfer, Ulrich Wellisch
Backmatter
Metadaten
Titel
Stochastische Risikomodellierung und statistische Methoden
verfasst von
Torsten Becker
Richard Herrmann
Christian Heumann
Stefan Pilz
Viktor Sandor
Dominik Schäfer
Ulrich Wellisch
Copyright-Jahr
2024
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-69532-6
Print ISBN
978-3-662-69531-9
DOI
https://doi.org/10.1007/978-3-662-69532-6