Data Analytics im Risikomanagement
Descriptive Analytics - Diagnostic Analytics - Predictive Analytics
- 2026
- Buch
- Verfasst von
-
Frank Romeike
Frank Romeike
- RiskNET GmbH, Brannenburg, Deutschland
-
Gabriele Wieczorek
Gabriele Wieczorek
- Hochschule Hamm-Lippstadt, Hamm, Deutschland
- Verlag
- Springer Fachmedien Wiesbaden
Über dieses Buch
Das Buch bietet einen umfassenden Überblick über Data Analytics im Risikomanagement in Unternehmen. Die fortschreitende Digitalisierung bringt eine wachsende Menge von Daten hervor. Data Analytics beschäftigt sich mit den Methoden zur Analyse dieser Daten und umfasst neben statistischen Modellen auch das Maschinelle Lernen. Unternehmen, die die methodischen Grundlagen von Data Analytics verstehen und anwenden, können nicht nur im Risikomanagement Daten wertschöpfend nutzen, sondern auf Basis einer verbesserten Analyse und Prognose fundierte unternehmerische Entscheidungen treffen. In einem durch den Einsatz von Artificial Intelligence (AI) geprägten Unternehmensumfeld stellt dies einen erheblichen Wettbewerbsvorteil dar.
Neben einer allgemeinen Einführung in Data Analytics erläutern die Autoren fundiert die Methoden der deskriptiven, diagnostischen sowie prädiktiven Datenanalyse. Basierend auf einem fiktiven Unternehmen werden Anwendungsbeispiele aus der Praxis des Risikomanagements beschrieben. Die Beispiele werden als Sourcecode in der Programmiersprache R für eine praktische Umsetzung zum Download bereitgestellt.
Inhaltsverzeichnis
-
Frontmatter
-
1. Einführung
Frank Romeike, Gabriele WieczorekZusammenfassungDie Programmiersprache R (und auch Python) hat sich als eine der führenden Werkzeuge für statistische Analysen und Datenwissenschaft etabliert. Die umfangreichen Funktionen, die starke Community und die Möglichkeit zur Erstellung reproduzierbarer Analysen machen R zu einer ausgezeichneten Wahl für jeden, der im Bereich der Datenanalyse tätig ist. Im ersten Kapitel liefern wir Ihnen eine kurze Einführung und einige Hinweise zur Nutzung des bereitgestellten R-Programmcodes sowie einige Literaturhinweise für die Leser, die sich einführend oder vertiefend mit der Programmiersprache R beschäftigen möchten. -
Einführung in Data Analytics und Descriptive Analytics
-
Frontmatter
-
2. Data Analytics – eine Einführung
Frank Romeike, Gabriele WieczorekZusammenfassungData Analytics, also Datenanalyse, ist ein Prozess, bei dem große Mengen von Daten untersucht werden, um Muster und Trends zu finden, die uns dabei helfen, Fragestellungen besser zu verstehen und fundierte und faktenbasierte Entscheidungen zu treffen. Man kann sich das vorstellen wie das Lösen eines Rätsels, bei dem man aus vielen kleinen Hinweisen ein klares Bild zusammensetzt. Dieses Kapitel liefert eine kurze historische Einführung in die Datenanalyse. Hierbei starten wir mit der Suche nach der Weltformel, einer „Theory of Everything“ (ToE). Hierbei handelt es sich um ein hypothetisches physikalisches Modell, das alle fundamentalen Wechselwirkungen der Natur in einer einzigen, allumfassenden Theorie vereinen soll. Sie stellt das ultimative Ziel der theoretischen Physik dar und versucht, die Quantenmechanik mit der allgemeinen Relativitätstheorie zu verbinden. Obwohl vielversprechende Ansätze wie die Stringtheorie und die Loop-Quantengravitation existieren, bleibt die vollständige Vereinigung der Quantenmechanik und der allgemeinen Relativitätstheorie noch unerreicht. In diesem Kontext beschäftigen wir uns auch kurz mit der Argumentation einiger Protagonisten von Big Data, die immer wieder ein „Ende der Theorie“ verkünden. Anschließend skizzieren wir die typischen Schritte im Data-Analytics-Prozess. Außerdem diskutieren wir kurz die Begriffe „Artificial Intelligence“ und „Künstliche Intelligenz“. Wir diskutieren die Frage, welche Relevanz die menschliche Intelligenz in einer algorithmisch dominierten Welt der „Artificial Intelligence“ hat. Abschließend skizzieren wir einführend die Unterschiede und Zusammenhänge zwischen „Descriptive Analytics“ und „Prescriptive Analytics“. -
3. Daten als Ausgangspunkt
Frank Romeike, Gabriele WieczorekZusammenfassungIn der heutigen digitalen Welt sind Daten allgegenwärtig und ihre Analyse ist entscheidend für fundierte Entscheidungen. Um Daten effektiv nutzen zu können, sind drei Kompetenzen besonders wichtig: Datenkompetenz, Methodenkompetenz und Informationskompetenz. Diese Kompetenzen sind nicht nur für Fachleute im Bereich Data Analytics relevant, sondern auch für das tagtägliche Leben und die korrekte Interpretation von Daten, etwas bei der täglichen Lektüre von Nachrichten oder Statistiken. Datenkompetenz ist die Fähigkeit, Daten zu verstehen, zu interpretieren und anzuwenden. Sie umfasst das Wissen, wie Daten gesammelt, verarbeitet und analysiert werden. Methodenkompetenz bezieht sich auf das Verständnis und die Anwendung der richtigen Analysemethoden und -techniken. Dies umfasst statistische Analysen, Datenvisualisierung und verschiedene Datenanalysetools. Informationskompetenz ist die Fähigkeit, relevante Informationen zu finden, zu bewerten und effektiv zu nutzen. Dies umfasst die Fähigkeit, Informationen aus verschiedenen Quellen zu recherchieren und zu verifizieren. Neben Datenkompetenz, Methodenkompetenz und Informationskompetenz behandelt das dritte Kapitel auch Datenquellen, Datenqualität und Datentypen sowie Datenaufbereitung, fehlende Daten, Ausreißer sowie die Datentransformation. Als weitere Themen werden in diesem Kapitel die Bedeutung der Stichprobengröße und mögliche Lösungsansätze im Umgang mit kleinen Stichprobenumfängen behandelt. Abschließend wird „Data Governance als Grundlage für Datenqualität und Zuverlässigkeit“ diskutiert. -
4. Descriptive Analytics, insbesondere Datenvisualisierung
Frank Romeike, Gabriele WieczorekZusammenfassung„Descriptive Analytics“ ist ein zentraler Bereich der Statistik, der sich mit der Beschreibung und Zusammenfassung von Daten befasst. Sie bietet Techniken, um große Mengen von Daten handhabbar, verständlich und interpretierbar zu machen. Dabei geht es nicht um das Ziehen von Schlussfolgerungen über größere Populationen, sondern lediglich um die Darstellung der Daten, wie sie vorliegen. Daten in der deskriptiven Statistik können in verschiedene Typen und Skalenniveaus unterteilt werden. Zu den Haupttypen gehören nominale, ordinale, intervall- und verhältnisskalierte Daten. Die Analyse von Häufigkeiten ist ein grundlegender Schritt in der deskriptiven Statistik. Sie umfasst das Zählen, wie oft jede mögliche Ausprägung eines Merkmals in einem Datensatz auftritt. Lageparameter helfen dabei, die zentrale Tendenz einer Datenreihe zu bestimmen. Zu den wichtigsten Lageparametern gehören der Mittelwert, der Median und der Modus. Streuungsparameter beschreiben die Variation oder Dispersionsbreite der Daten. Dazu gehören die Varianz, die Standardabweichung und der Interquartilsabstand. Die Konzentrationsmessung gibt an, wie stark sich Merkmale, wie z. B. Einkommen oder Marktanteile, innerhalb einer Gruppe oder über eine Region konzentrieren. Ein gängiges Maß dafür ist der Gini-Koeffizient, der misst, wie ungleich eine Verteilung im Vergleich zu einer perfekt gleichmäßigen Verteilung ist. Um Beziehungen zwischen zwei oder mehreren Variablen zu untersuchen, verwendet die deskriptive Statistik Maße wie Korrelationskoeffizienten. Diese Koeffizienten quantifizieren die Stärke und Richtung des linearen Zusammenhangs zwischen den Variablen. Scatterplots sind nützliche grafische Darstellungen, um die Art dieser Beziehungen visuell zu prüfen. Die deskriptive Statistik bildet die Grundlage für die inferenzielle Statistik, die darüber hinausgeht, indem sie versucht, auf Basis der beschreibenden Analyse Schlussfolgerungen zu ziehen und Vorhersagen zu machen.
-
-
Fortgeschrittene deskriptive und erklärende Analyse (Diagnostic Analytics)
-
Frontmatter
-
5. Clusteranalyse
Frank Romeike, Gabriele WieczorekZusammenfassungEine Clusteranalyse ist eine Methode der multivariaten Statistik, die dazu dient, eine Menge von Objekten oder Datenpunkten in Gruppen (Cluster) zu unterteilen. Diese Gruppen werden so gebildet, dass die Objekte innerhalb eines Clusters möglichst ähnlich (homogen) und die Objekte verschiedener Cluster möglichst unähnlich (heterogen) zueinander sind. Ziel der Clusteranalyse ist es, Strukturen in Daten zu entdecken, indem man Objekte auf Basis ihrer Merkmale oder Eigenschaften gruppiert. Die Anwendungsbereiche der Clusteranalyse sind vielfältig und reichen von Marktsegmentierungen über die Genomik bis hin zur Bild- und Spracherkennung. In der Marktforschung wird sie beispielsweise verwendet, um Kundengruppen mit ähnlichen Kaufverhaltensweisen oder Präferenzen zu identifizieren. Im folgenden Kapitel werden die unterschiedlichen Methoden der Clusteranalyse an konkreten Fallbeispielen aus dem Risikomanagement erläutert. -
6. Assoziationsanalyse
Frank Romeike, Gabriele WieczorekZusammenfassungDie Assoziationsanalyse ist ein wirkungsvolles Verfahren zur Erkennung von Mustern und Zusammenhängen, die auf Risiken hinweisen können und zählt zu den originären Verfahren des Data Minings. So können Assoziationsregeln bei der Betrugserkennung helfen, auffällige Muster in Transaktionsdaten zu entdecken. Beispielsweise kann erkannt werden, dass Kreditkartenzahlungen in bestimmten Ländern oft mit Betrugsfällen korrelieren. Außerdem kann die Assoziationsanalyse zur Erkennung systemischer Risiken genutzt werden, indem sie untersucht, welche Finanzprodukte oder Marktbewegungen häufig gemeinsam auftreten. Finanzdienstleistern kann die Assoziationsanalyse dabei helfen, verdächtige Muster in Geldtransfers zu erkennen – etwa häufige Transaktionen zwischen bestimmten Unternehmen und Offshoring-Konten. In der Industrie lassen sich durch die Analyse von Maschinen- und Produktionsdaten Fehlerquellen identifizieren, die oft in Kombination auftreten und potenzielle Ausfälle verursachen. -
7. Lineare Regression
Frank Romeike, Gabriele WieczorekZusammenfassungDie lineare Regression ist eine der grundlegenden statistischen Methoden zur Modellierung von Zusammenhängen zwischen Variablen und spielt eine entscheidende Rolle im Risikomanagement. Sie ermöglicht es, Risiken quantitativ zu bewerten, Trends vorherzusagen und fundierte Entscheidungen auf Basis historischer Daten zu treffen. Im Risikomanagement wird die lineare Regression häufig genutzt, um Zusammenhänge zwischen Risikoindikatoren und möglichen Verlusten zu analysieren. Finanzinstitute, Versicherungen und Unternehmen setzen sie beispielsweise ein, um a) Kreditrisiken vorherzusagen, indem der Einfluss von Faktoren wie Einkommen und Schuldenlast auf Zahlungsausfälle modelliert wird, b) Marktrisiken zu bewerten, indem Preisbewegungen von Finanzinstrumenten anhand wirtschaftlicher Indikatoren analysiert werden, c) Betrugsrisiken zu identifizieren, indem ungewöhnliche Muster in Transaktionsdaten erkannt werden oder d) Operationelle Risiken zu quantifizieren, etwa durch die Analyse der Beziehung zwischen Systemausfällen und finanziellen Verlusten. -
8. Klassifikationsverfahren
Frank Romeike, Gabriele WieczorekZusammenfassungKlassifikationsverfahren sind eine zentrale Methode im Risikomanagement, um Datenpunkte oder Ereignisse bestimmten Kategorien (Klassen) zuzuordnen. Sie werden insbesondere genutzt, um Betrug zu erkennen, Kreditrisiken zu bewerten oder Anomalien in Finanztransaktionen zu identifizieren. So nutzen Banken etwa in der Kreditrisikobewertung Klassifikationsmodelle, um Kreditnehmer in „gute“ und „risikoreiche“ Kunden zu unterteilen. Faktoren wie Einkommen, Bonität und frühere Zahlungshistorie fließen in die Modellierung ein. Versicherungen und Zahlungsanbieter klassifizieren im Rahmen der Betrugserkennung Transaktionen oder Schadensmeldungen als „normal“ oder „betrügerisch“, indem sie auffällige Muster analysieren. Außerdem helfen Klassifikationsverfahren bei der Anomalieerkennung, um beispielsweise ungewöhnliche Marktbewegungen oder Cyberangriffe frühzeitig zu erkennen. Außerdem setzen Unternehmen im Compliance-Management Klassifikationsmodelle ein, um Geldwäsche oder Verstöße gegen regulatorische Vorschriften zu identifizieren. -
9. Zeitreihenanalyse
Frank Romeike, Gabriele WieczorekZusammenfassungRisiken entwickeln sich oft dynamisch über die Zeit, weshalb es wichtig ist, nicht nur einzelne Werte zu betrachten, sondern langfristige Entwicklungen und wiederkehrende Muster zu erkennen. So können etwa mit Hilfe von Zeitreihenanalysen Rohstoffpreise, Wechselkurse und Zinssätze analysiert werden, um Marktrisiken frühzeitig zu identifizieren. Im Kredit-Risikomanagement können Zahlungsausfälle über die Zeit analysiert werden, um frühzeitige Warnsignale für Bonitätsrisiken zu erkennen. Zur Betrugserkennung können ungewöhnliche Transaktionsmuster in Echtzeit-Datenströmen untersucht werden. Im Bereich des IT- und OT-Risikomanagements können Anomalien im Netzwerkverkehr untersucht werden, die auf potenzielle Angriffe hindeuten. Im industriellen Risikomanagement können Maschinen- oder Systemausfälle zur Vorhersage von Wartungsbedarf analysiert werden. Die Zeitreihenanalyse ist ein essenzielles Werkzeug im quantitativen Risikomanagement, um trendspezifische Risiken zu erkennen, künftige Entwicklungen vorherzusagen und präventive Maßnahmen zu entwickeln.
-
-
Vorhersagen für die Zukunft (Predictive Analytics)
-
Frontmatter
-
10. Ein Blick in die Zukunft
Frank Romeike, Gabriele WieczorekZusammenfassungPredictive Analytics bezieht sich auf die Nutzung von statistischen Methoden, Maschinellem Lernen und Datenanalysetechniken, um Vorhersagen über zukünftige Ereignisse oder Ergebnisse zu treffen. Diese Disziplin stützt sich auf historische Daten, um Muster zu erkennen und Modelle zu erstellen, die zukünftiges Verhalten oder Zustände vorhersagen können.Bayes-Netze sind ein leistungsfähiges Tool im Bereich der Predictive Analytics. Diese grafischen Modelle stellen Beziehungen zwischen einer Menge von Variablen durch gerichtete Kanten und Knoten dar, wobei die Knoten die Zufallsvariablen repräsentieren. Bayes-Netze nutzen die Prinzipien der Wahrscheinlichkeitstheorie und insbesondere des Bayes-Theorems, um die Wahrscheinlichkeit von Ereignissen unter Berücksichtigung neuer Evidenz zu aktualisieren.Maschinelles Lernen (ML) ist ein weiterer integraler Bestandteil der Predictive Analytics. ML-Modelle lernen aus Daten, indem sie Algorithmen anwenden, die aus Erfahrung lernen und sich selbst verbessern, ohne explizit programmiert zu werden. Es gibt zwei Haupttypen des Maschinellen Lernens, die in der Predictive Analytics verwendet werden: überwachtes Lernen, bei dem Modelle auf der Grundlage von Eingabedaten und bekannten Ausgabewerten trainiert werden, und unüberwachtes Lernen, das Muster in den Daten ohne vorherige Kenntnis der Ausgabe findet.Eine Evaluierung von prädiktiven Modellen ist entscheidend, um die Leistungsfähigkeit und Zuverlässigkeit von Predictive-Analytics-Modellen zu gewährleisten. Verschiedene Techniken und Metriken werden angewandt, um zu bewerten, wie gut ein Modell zukünftige Ereignisse vorhersagt. Zu den gängigen Evaluierungsmethoden gehören die Kreuzvalidierung und die Trennung von Trainings- und Testdatensätzen. Wichtige Leistungsmetriken umfassen Genauigkeit, Präzision, Recall und der F1-Score für Klassifikationsprobleme sowie den mittleren quadratischen Fehler (MSE) und den mittleren absoluten Fehler (MAE) für Regressionsprobleme. Ein tieferes Verständnis dieser Evaluierungsmethoden ist notwendig, um die Effektivität der Modelle sicherzustellen und um zu vermeiden, dass Modelle zu spezifisch auf die Trainingsdaten zugeschnitten sind, was als Overfitting bekannt ist.
-
-
Werkzeuge im Bereich Data Analytics
-
Frontmatter
-
11. Einführung in R
Frank Romeike, Gabriele WieczorekZusammenfassungMit diesem Kapitel möchten wir Ihnen keinen Kurzlehrgang in die „R“-Programmierung liefern. Das würde den Rahmen des Buches sprengen. Dafür geben Sie in Ihrem Web-Browser „R for Beginners“ ein, dann werden Sie mit sehr vielen und hilfreichen Beiträgen und Hinweisen versorgt, die Ihnen den Einstieg in R erleichtern werden. Ergänzend haben wir in Abschn. 1.4 einige ausgewählte Bücher als Einführungslektüre in R empfohlen. Dennoch möchten wir Ihnen nachfolgend kurz die Entwicklungsumgebung R-Studie sowie eine Übersicht über die wichtigsten R-Befehle mit auf den Weg geben. Damit sollten erste Hürden im Schreiben eines R-Programmcodes auf kleine und einfach zu bewältigende Herausforderungen reduziert werden. -
12. Einführung in Python
Frank Romeike, Gabriele WieczorekZusammenfassungMit diesem Kapitel möchten wir Ihnen keinen Kurzlehrgang in die Python-Programmierung liefern. Das würde den Rahmen des Buches sprengen. Geben Sie jedoch einfach „Python for Beginners“ in Ihrem Web-Browser ein, und Sie werden mit zahlreichen hilfreichen Ressourcen und Hinweisen versorgt, die Ihnen den Einstieg in Python erleichtern werden. Ergänzend stellen wir in diesem Kapitel einige ausgewählte Bücher als Einführungslektüre in Python vor. Nachfolgend bieten wir Ihnen einen kompakten Einblick in die Entwicklungsumgebung Python. Außerdem haben wir Übersichten mit den wichtigsten Python-Befehlen erstellt. Damit sollten erste Hürden im Schreiben von Python-Code auf kleine und einfach zu bewältigende Herausforderungen reduziert werden. -
13. LLMs zur Generierung von R- oder Python-Code verwenden
Frank Romeike, Gabriele WieczorekZusammenfassungDer Einsatz von großen Sprachmodellen (Large Language Models, LLMs) in Wirtschaft und Gesellschaft stellt einen bedeutenden Meilenstein in der Anwendung von AI-Technologien dar und fördert auch weiterhin branchenübergreifende Chancen für Innovationen. Dem Bereich der generativen AI zugehörig, sind LLMs maschinelle Lernmodelle, die anhand großer Mengen von Textdaten trainiert werden und für die Verarbeitung von Sprache konzipiert sind. LLMs wie GPT-5 oder Claude, sogenannte Chatbots, können komplexe Zusammenhänge verstehen, Absichten erkennen und mehrsprachig agieren und sind beispielsweise in CRM- oder Helpdesk-Systemen von großem Nutzen. LLMs optimieren die Arbeit von Analysten, Datenwissenschaftlern und Risikomanagern, indem sie automatisch Code für verschiedene statistische und ML-Aufgaben generieren und optimieren sowie bei der Visualisierung unterstützen. Trotz der umfassenden Unterstützung durch LLMs bleibt jedoch ein Verständnis der methodischen Grundlagen von Data Analytics nicht nur für Risikomanager unverzichtbar, um korrekte Prompts zu formulieren und die Resultate einer sorgfältigen Bewertung zu unterziehen. -
14. Hintergrundinformationen zur Fallstudie „Inntal AG“
Frank Romeike, Gabriele WieczorekZusammenfassungDie Mehrzahl der in diesem Buch beschriebenen und programmierten Beispiele basiert auf der Fallstudie der „Inntal AG“. Hierbei handelt sich um ein fiktives Unternehmen. Nachfolgend haben wir einige Basisinformationen zur Inntal AG zusammengefasst.
-
-
Backmatter
- Titel
- Data Analytics im Risikomanagement
- Verfasst von
-
Frank Romeike
Gabriele Wieczorek
- Copyright-Jahr
- 2026
- Electronic ISBN
- 978-3-658-48843-7
- Print ISBN
- 978-3-658-48842-0
- DOI
- https://doi.org/10.1007/978-3-658-48843-7
Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.