Skip to main content
main-content

Über dieses Buch

Das Buch zeigt, wie Unternehmen durch die Anwendung der stochastischen Szenariosimulation ein wirksames und effizientes Risikomanagement umsetzen können. Die einfache Darstellung der Grundbegriffe und Methoden der Stochastik, ergänzt um Beispiele und Fallstudien aus der Praxis, geben dem Leser ein praxiserprobtes Toolkit an Instrumenten für die praktische Umsetzung mit auf den Weg.

Die Autoren führen zunächst in die faszinierende Welt des Zufalls ein und erklären die Grundbegriffe der deskriptiven und auch für das Risikomanagement wichtigen Inferenzstatistik. Anschließend geben sie einen Einblick in erforderliche Wahrscheinlichkeitsverteilungen mit deren Risikomaße und Anwendung in der Praxis und beschreiben Verfahren der Risikoaggregation und der Effizienzbewertung von Risiko-Abmilderungsmaßnahmen. Diese Einführung wird begleitet durch konkrete Fallbeispiele, die in der Programmumgebung „R“ umgesetzt wurden.

Ergänzend zur Einführung in die spannende Welt der Stochastik werden in einem separaten Kapitel typische Fallstudien aus der Praxis präsentiert. Die Beispiele werden als Sourcecode in der Programmiersprache „R“ für eine praktische Anwendung sowohl im Buch als auch in elektronischer Form von den Autoren zum Download bereitgestellt.

Inhaltsverzeichnis

Frontmatter

Kapitel 1. Einführung

Zusammenfassung
Dieses Buch liefert Ihnen keine weitere „Einführung in die Grundlagen der Statistik“. Sie müssen sich nicht durch komplexe Formeln, theoretische Modelle und meterlange Beweise quälen. Unser Buch hat einen anderen Zugang gewählt, um Sie in das spannende Thema der Stochastik und Simulation einzuführen. Unser Ziel war es, eine gute Mischung zwischen einer Einführung in die Grundlagen der Statistik und einer konkreten Anwendung in Form von Fallbeispielen in der kostenfreien Statistik-Programmumgebung „R“ zu finden. Insbesondere die aus der Praxis übernommenen Fallbeispielen am Ende des Buches liefern Ihnen Anregungen, wie konkrete Fragestellungen aus der Praxis mit Hilfe von „R“ umgesetzt werden können. Im ersten Kapitel liefern wir Ihnen eine grobe Übersicht über die Gliederung des Buches. Die weiteren neun Kapitel liefern Ihnen in einer klaren Struktur eine Einführung oder ggf. auch eine Wiederholung von bereits Gelerntem als Basis für die Anwendung konkreter Fallbeispiele. Für in Statistik und Stochastik bereits erfahrene Leser und Profis würden wir mit den ersten neun Kapiteln voraussichtlich „Eulen nach Athen“ tragen. Sie können diese durchaus auch überspringen und sich direkt auf die Fallbeispiele konzentrieren oder nur einzelne Kapitel isoliert vertiefen.
Frank Romeike, Manfred Stallinger

Kapitel 2. Einführung in die faszinierende Welt des Zufalls

Zusammenfassung
Warum findet die Zukunft nicht in einer einzelnen Excel-Zelle Platz? Warum werden Risiken immer noch in einer zweidimensionalen und dreifarbigen Matrix mit roten, gelben und grünen Feldern in Form eines Punktes beschrieben, obwohl sich Risiken nicht als ein einzelner Punkt abbilden lassen? Beide Fragen können nur aus der Einfachheit, eine einzige Zahl eintragen zu müssen und der Scheu, eine Bandbreite möglicher Ausprägungen eines Risikos – beispielsweise mithilfe stochastischer Methoden – zu beschreiben, beantwortet werden. Risiken sind in der Zukunft liegende Unsicherheiten, die sowohl vorteilhafte als auch unvorteilhafte Abweichungen vom Erwarteten mit deren Auftretenswahrscheinlichkeiten oder Häufigkeiten beschrieben werden müssen. Der „Zufall“ im täglichen Leben oder das „Zufallsexperiment“ in der Statistik und Stochastik beschreiben ein nicht vorhersagbares, nicht deterministisches und in der Zukunft liegendes Ereignis. Auch im Risikomanagement führt der Zufall Regie. Erst die Menge vieler vermuteter, vor uns liegender Zufälle, auch als Zufallsexperimente bezeichnet, beschreiben die Zukunft.
Frank Romeike, Manfred Stallinger

Kapitel 3. Grundbegriffe

Zusammenfassung
Neben den Begriffen aus dem Chancen- und Risikomanagement, sind auch einige essenzielle Grundbegriffe aus dem Umfeld der Statistik erforderlich, damit die Zusammenhänge der stochastischen Szenarioanalyse nachvollzogen werden können. Hierbei ist vor allem auch eine Abgrenzung von Begriffen (etwa Risiko, Bedrohung und Chance) für eine Reduzierung der babylonischen Sprachverwirrung im Risikomanagement sowie eine wirksame Umsetzung in die Praxis wichtig. Im Folgenden werden daher neben den grundlegenden Begrifflichkeiten aus dem Risikomanagement auch die wichtigen terminologischen Grundlagen der Statistik vorgestellt. Ausgehend davon, dass Statistik die Lehre von Methoden zum Umgang mit quantitativen Informationen ist, werden anschließend die Grundlagen der deskriptiven Statistik (auch beschreibende Statistik oder empirische Statistik) und das Fundament der Inferenzstatistik (auch induktive Statistik, schließende Statistik oder beurteilende Statistik) vorgestellt. In der Inferenzstatistik leitet man aus den Daten einer Stichprobe Eigenschaften einer Grundgesamtheit ab. Die Wahrscheinlichkeitstheorie liefert hierbei die elementaren Grundlagen für die erforderlichen Schätz- und Testverfahren. Auf die explorative Statistik (auch hypothesen-generierende Statistik, analytische Statistik oder Data-Mining) gehen wir nur am Rande sowie in den nachfolgenden Kapiteln ein.
Frank Romeike, Manfred Stallinger

Kapitel 4. Risiken und Chancen als Wahrscheinlichkeitsverteilungen darstellen

Zusammenfassung
In den Unternehmen wird Risikomanagement auf Basis unterschiedlichster Methoden und Verfahren praktiziert. Welche Methode eingesetzt wird, hängt von sehr vielen Faktoren, insbesondere vom Reifegrad des Risikomanagements sowie der Unternehmenssteuerung ab. Das Management von Risiken und Unsicherheit ist so alt wie die Menschheit selbst. Es ist davon auszugehen, dass bereits die Menschen in der Steinzeit ihren Entscheidungen häufig die „Was wäre, wenn?“-Frage zugrunde gelegt haben. Der Steinzeitmensch, der plötzlich einem Säbelzahntiger gegenüberstand, wird sich verschiedene Szenarien über „Was wäre, wenn?“-Analysen intuitiv überlegt haben. Seine bisherigen Erfahrungen – abgespeichert in seinem intuitiven Denksystem – lieferten ihm hier eine wertvolle Basis für seine – hoffentlich nicht letzte – Entscheidung und Beurteilung möglicher Risiken. In der Definition im Abschn. 3.1.1 (Risiko) wird ein „Risiko“ als die unerwartete und unvorteilhafte Abweichung von Geplantem beschrieben. Ist die Abweichung gering, so ist auch das Risiko gering. Ist die Abweichung sehr groß, so ist das vermeintliche Risiko sehr groß. Dennoch ist die Wahrscheinlichkeit des Auftretens einer großen Abweichung wesentlich geringer als geringe Abweichungen. So besteht zwischen Abweichung und Auftretenswahrscheinlichkeit ein numerischer Funktionszusammenhang, der in einer statistischen Wahrscheinlichkeitsverteilung beschrieben wird.
Frank Romeike, Manfred Stallinger

Kapitel 5. Risiken in der Unternehmensplanung

Zusammenfassung
Wenn pauschal von einem Unternehmensrisiko gesprochen wird, so stehen dahinter eine ganze Reihe unterschiedlicher Einzelrisiken, die auf das Unternehmen, beispielsweise auf das EBIT (EBIT ist eine Abkürzung für „earnings before interest and taxes) oder die Liquidität einwirken. Allgemein wirken Risiken auf den operativen Gewinn aus dem Leistungsbereich (originärer Bereich) , den Cashflow, das Eigenkapital oder auch auf das Rating sowie andere unternehmerische Kennzahlen eines Unternehmens. Wenn wir die im Jahr 2020 stark dominierende Ursache der „COVID-19-Pandemie“ für höchst unterschiedliche Risiken (Unterbrechung der Wertschöpfungsketten, Betriebsunterbrechungen, konjunkturelle Effekte etc.) betrachtet, können neben den gesundheitlichen und gesellschaftlichen Auswirkungen und Folgen für die Bevölkerung vor allem enorme Wirkungseffekte auf die Weltwirtschaft beobachtet werden (eine wissenschaftliche Datenbank zu den Wirkungseffekten liefert https://​collateralglobal​.​org/​). Die weltweiten ökonomischen Strukturen sind zum Teil in ihren Fundamenten erschüttert worden. Diese globalen Auswirkungen aus der Makroökonomie müssen aus der Unternehmenssicht wiederum in die Mikroökonomie eines jeden Unternehmens heruntergebrochen und bewertet werden. Das Ereignis der „COVID-19-Pandemie“ ist im Jahr 2020 bereits in der Realität angekommen und per se keine Ursache für ein Risiko mehr (sondern ein eingetretenes Ereignis). Lediglich die potenziellen Auswirkungen der Pandemie und die in der Zukunft liegenden Unsicherheiten, d. h. die Chancen („upside risk“) und Risiken („downside risk“) müssen in der Unternehmensplanung berücksichtigt werden. Eine bestmögliche Prognose über mögliche, unvorteilhafte Auswirkungen auf das Unternehmen zu erkennen und diese mit effizienten Maßnahmen auf ein für das Unternehmen erträgliches und bewältigbares Maß reduzieren zu können, ist die Aufgabe des Risikomanagements. Geeignete Maßnahmen zu ergreifen, um die gesteckten operativen und strategischen Unternehmensziele erreichen zu können, ist die Aufgabe der Unternehmensplanung, die in der Regel im Finanzbereich eines Unternehmens angesiedelt ist.
Frank Romeike, Manfred Stallinger

Kapitel 6. Stochastische Prozesse

Zusammenfassung
In den bisherigen Ausführungen standen mathematische bzw. stochastische Modelle für zufallsabhängige Phänomene (Zufallsexperimente), beispielsweise Urnenexperimente oder Würfelwürfe im Mittelpunkt. Von besonderer Bedeutung waren dabei Eigenschaften verteilter Zufallsvariablen \(X_{i}\) in Form von Volatilitäten bzw. Schwankungsrisiken und Compound-verteilten Ereignisrisiken mit und ohne Begrenzungen zu beschreiben. Stochastische Prozesse gehen über diese singuläre Betrachtung zeitlich eindimensionaler Risiken hinaus und betrachten das Konzept der stochastisch unabhängigen Folgen identisch verteilter Zufallsvariablen auf einem festgelegten, in die Zukunft gerichteten Zeitstrahl oder aufeinanderfolgender Zufallsexperimente. Das wesentliche Kriterium eines stochastischen Prozesses von einer Folge durchgeführter Experimente ist, dass das in den vorangegangenen Versuchen erzielte Ergebnis auf das Gesamtergebnis Einfluss nimmt. Ein stochastischer Prozess wird als Folge von Zufallsvariablen \(X\left( t \right)_{t}\), mit dem zeitlichen Index \(t\) aus einer Indexmenge der natürlichen Zahlen definiert (vgl. [10, 15]). Abhängig davon, ob für jedes Teilsegment eines Intervalls eine oder nur für etwa ganzzahlige \(t\) eine Zufallsvariable \(X\left( t \right)_{t}\) bestimmbar ist, unterscheidet man stetige oder diskrete stochastische Prozesse als Funktion über die Indexmenge \(t\). Eine beispielhafte Anwendung der Theorie stochastischer Prozesse erfolgt in der Analyse von Zeitreihen, in der Marktforschung und insbesondere auch in der Betrachtung mehrerer Perioden im Risikomanagement. Dabei wird ausgehend von einer belastbaren Planung, versucht über \(n\) Perioden in die Zukunft eine Prognose über mögliche Entwicklungen abzuleiten.
Frank Romeike, Manfred Stallinger

Kapitel 7. Risikomaße

Zusammenfassung
„Was man nicht messen kann, kann man nicht managen.“ In dieser Aussage, die wahlweise dem Physiker W. Edwards Deming oder dem Managementautor Peter Drucker zugeschrieben wird, steckt sehr viel Tiefgründiges. Im Umkehrschluss kann daraus abgeleitet werden: Wenn man etwas lenken möchte, muss man es messen! Investoren, Banken, externe Prüfer und Auditoren fordern sie, Controller lieben sie, Führungskräfte und Management-Beauftragte benötigen sie. Es sind die Kennzahlen, die hier beschrieben werden. Kennzahlen gehören zu den wichtigen Dingen, die nicht nur dringlich, sondern für ein Unternehmen auch überlebensnotwendig sein können. Weil sie sehr oft an der Quelle, an der sie entspringen, unbeliebt sind, bleiben sie sehr oft auf der Strecke. Kennzahlen sind Maßzahlen, die zur Quantifizierung dienen und denen eine Vorschrift zur quantitativen und reproduzierbaren Messung einer Größe, eines Zustandes oder eines Vorgangs zugrunde liegen. Die Aufgabe von Kennzahlen im unternehmerischen Kontext ist, Sachverhalte und Kausalzusammenhänge mit Hilfe von Zahlen, Gleichungen, Formeln oder Indexwerten zu verdichten. Der Vorstand, Geschäftsführer, Projektleiter oder verallgemeinert der Entscheider soll sich aufgrund von Kennzahlen auf dem kurzen Wege eine Meinung bilden, Beurteilungen abgeben, Rangfolgen herstellen und Entscheidungen treffen können. Risikomaße bzw. Risikokennzahlen sind Kennzahlen, die mit dem Faktor „Unsicherheit“ angereichert sind und damit in der Zukunft liegende Schwankungen und Ereignisse bewertbar und kommunizierbar machen. Es sind sowohl einfache absolute Maße, die sich aus der Beschreibung von Verteilungsfunktionen ableiten lassen, als auch relative und damit von absoluten Größen unabhängige Kennwerte, die Aussagen über Unsicherheiten in der Zukunft liefern. Als Weiterentwicklung der im Controlling verwendeten Performance-Kennzahlen bzw. Key Performance Indikators (KPI) werden diese mit stochastisch simulierten Ergebniswerten gebildet und decken somit den Faktor Unsicherheit mit ab. Beispiele dafür sind das EBIT@Risk oder der Cashflow@Risk, die das risikoadjustierte Jahresergebnis oder den risikobehafteten Cashflow beschreiben (vgl. [8] und [17]). Neben den bekannten, in der Literatur vielfach beschriebenen Kennzahlen, geben einfache Risikoindikatoren, beispielsweise die Aussage der Planungssicherheit oder der Verlust- bzw. Insolvenzwahrscheinlichkeit, dem verantwortlichen Management wertvolle Aussichten und Entscheidungsgrundlagen zum evidenzbasierten „Lenken“ ihrer Unternehmung – basierend auf fundierten Methoden und Analysen.
Frank Romeike, Manfred Stallinger

Kapitel 8. Abhängigkeiten modellieren

Zusammenfassung
In der realen Welt ist die Analyse und Beurteilung von singulären Risikoereignissen nicht zielführend und für die überwiegenden Situationen auch nicht aussagekräftig genug, um Entscheidungen über konsistente und mitunter kostenintensive Steuerungsmaßnahmen zu treffen. Daher sind Unsicherheiten immer in einem Kontext verschieden wirkender Ereignisse und Schwankungen zu betrachten. Aus mathematischer Sicht ist die Vorwegnahme einer statistischen Unabhängigkeit involvierter Ereignisse und Schwankungen eine wesentliche Erleichterung, da dies sehr oft zu einer Vereinfachung der Berechnung führt. In der Realität ist diese Vorwegnahme einer statistischen Unabhängigkeit jedoch sehr oft eine zu große Vereinfachung. Ermittelte Ergebnisse, die als Entscheidungsgrundlage für große Investitionen oder strategische Positionierungen dienen, können unzulässig verfälscht werden. So besitzen sehr viele Zufallsvariable klare Beziehungen zueinander. Beispielsweise stehen die Größe und das Gewicht einer Person in einer klaren Beziehung. Auch Niederschlagsmengen und Pegelstände von Gewässern sind positiv voneinander abhängig. Beide Dimensionen sind insbesondere für Simulationsverfahren in der Generierung der Zufallsexperimente zueinander in Beziehung zu bringen bzw. zu korrelieren. Risiken sind in der Unternehmenspraxis sehr oft hochgradig komplex miteinander verknüpft. So führen Rückkopplungen mit positiven (reinforcing loops) und negativen (balancing loops) Polaritäten zu einer dynamischen und kombinatorischen Komplexität der gesamten Risikolandkarte man denke hier beispielhaft an Supply-Chain-Risiken in einem globalen Kontext, vgl. hierzu [8]). Nicht nur in Simulationsverfahren sind Abhängigkeiten beim Generieren von Zufallsvariablen zu berücksichtigen. In realen Umgebungen werden sehr oft Abhängigkeiten von Sachzusammenhängen bestimmt. Um beispielsweise eine Glühlampe zum Leuchten zu bringen, sind eine sehr große Anzahl an Rahmenbedingungen zu erfüllen. Ausgehend von steuerbaren Bedingungen, ist eine Glühlampe in die Fassung geschraubt und der Lichtschalter auf „EIN“, müssen schwer oder auch nicht steuerbare infrastrukturelle Bedingungen erfüllt sein, sodass Strom fließen kann. Um das Top-Ereignis „Lampe leuchtet“ in seiner Zuverlässigkeit bewerten zu können, sind alle relevanten Rahmenbedingungen in deren Zuverlässigkeit und Ursache-Wirkungsketten zu bewerten.
Frank Romeike, Manfred Stallinger

Kapitel 9. Sensitivitätsanalyse in der Praxis

Zusammenfassung
Mithilfe der Sensitivitätsanalyse wird berechnet, wie hoch der Einfluss einer Input-Größe (ein einzelnes Risiko) auf eine Ergebnisgröße (beispielsweise auf das Betriebsergebnis oder den Deckungsbeitrag) ist. Die Sensitivitätsanalyse wird sowohl im Bereich der Physik, der Mathematik und der Betriebswirtschaft angewendet. Es wird eine mögliche Auswirkung an der Zielgröße, dem Erlös oder EBIT eines Unternehmens oder einer anderen aggregierten Größe untersucht, die aufgrund einer Veränderung der Einflussgröße, der Konjunktur, der Rohstoffpreise oder möglicher Ereignisrisiken, verursacht werden kann. Werner Gladen beschreibt in seinem Buch „Performance Management“ (vgl. [1]) die Sensitivitätsanalyse als ein wichtiges Verfahren, mit deren Hilfe Unternehmen die kritischen Werte und Einflussfaktoren einzelner Risiken auf ökonomische Zielgrößen analysieren, finden und reihen können. Diese Analyse kann als weiterführende Methode der Bow-Tie-Ergebnisse (siehe Abschn. 8.​1.​1.​2) betrachtet werden. Eine Bow-Tie-Analyse liefert eine Reihe möglicher Konsequenzen von Risiken, die Veränderungen an der Zielgröße verursachen können. Mit der Sensitivitätsanalyse lassen sich diese Konsequenzen ihrer Auswirkung entsprechend priorisieren und daraus Maßnahmen ableiten. Werden alle Konsequenzen ihrer Sensitivität entsprechend absteigend gereiht, können beispielsweise dem Pareto-Prinzip (siehe Abschn. 4.​3.​2.​9) entsprechend jene 20 % der erforderlichen Maßnahmen abgeleitet werden, deren Wirksamkeit 80 % der möglichen, unvorteilhaften Abweichungen abmildern können.
Frank Romeike, Manfred Stallinger

Kapitel 10. Simulation und Optimierung von Maßnahmen

Zusammenfassung
In der Mathematik steht der Begriff der Optimierung für das Aufsuchen des größten oder kleinsten Wertes einer Funktion. Es gilt dabei das Finden eines der beiden Extremwerte – dem Maximum oder Minimum. Im Kontext des Risikomanagements bedeutet Optimierung ein Maximum an Nutzen (Risikominimierung) bei gleichzeitiger Minimierung des dafür erforderlichen Aufwands zu finden. Ein Optimum aus Kosten und Nutzen kann jedoch nicht durch einfache Grundrechnungsarten ermittelt werden. Die Kosten einer Versicherung sind sehr einfach darstellbar – der Nutzen liegt jedoch in der Zukunft und ist unsicher, etwa der potenzielle Schadenausgleich beim Abschluß einer Betriebsunterbrechungsversicherung oder einer Produkthaftpflichtversicherung. Eine stochastische Szenariosimulation und -analyse ermöglicht es hingegen basierend auf einer fundierten Methodik, den zu erwartenden Nutzen einer Maßnahme zu ermitteln. Erst der Vergleich beider Simulationsergebnisse, vor und nach einer Risikoreduzierung bzw. -vermeidung oder -finanzierung durch Maßnahmen, zeigt die Effizienz einer Maßnahme auf. Jeder Ökonom wird dabei sofort an den Barwert bzw. den „Net Present Value“ (NPV) denken, den es als erwartete Risikomilderung abzüglich der Erstinvestitionskosten und den daraus erforderlichen Folgekosten zu maximieren gilt. Mit den Begriffen Nettonutzen der Maßnahme, Maßnahmenwirkung sowie Maßnahmeneffizienz beschäftigt sich das nachfolgende Kapitel.
Frank Romeike, Manfred Stallinger

Kapitel 11. Fallstudien

Zusammenfassung
In den vorangegangenen Kapiteln wurden verschiedene Teilbereiche der Stochastik behandelt und bereits in ausgewählten Bereichen mit der Statistik- und Programmumgebung „R“ umgesetzt und berechnet. Somit verfügen Sie über das erforderliche Rüstzeug, um eigene Fragestellungen aus der Praxis mithilfe der Stochastik umsetzen zu können. Anhand der in den Fallstudien angesprochenen Unternehmen, der Blue Danube Corporation (BDC), der Inntal Semiconductor SE sowie der RiskNET Inntal AG (RNI) werden Szenarien beschrieben, die durchaus einen sehr großen Realitätsbezug haben. Alle drei Unternehmen sind fiktive, von den Autoren erfundene Unternehmen. Die beschriebenen Fallbeispiele sind aus der Realität übernommen und wurden an beide Unternehmen angepasst. Vielleicht findet sich der eine oder andere Leser bei den beschriebenen Szenarien wieder. In den Beispielen wird eine Unternehmensplanung unter Einfluss von Risiken, eine risikobehaftete, mehrphasige Projektplanung mit deren Unsicherheiten im Projektfortschritt, die Berücksichtigung von Rohstoffpreisvolatilitäten in der Zukunft, eine Investitionsentscheidung unter Risiko sowie Informationssicherheits- und Cyberrisiken mit quantitativen Methoden beschrieben. Alle Zahlen und Beispiele sind selbstverständlich fiktiv gewählt, die zugrunde liegenden Szenarien aber durchaus real!
Frank Romeike, Manfred Stallinger

Kapitel 12. Einführung in R

Zusammenfassung
Mit dem abschließenden Kapitel liefern wir Ihnen keinen Kurzlehrgang in die Programmumgebung „R“. Das würde den Rahmen des Buches absolut sprengen. Und außerdem existieren hierfür bereits exzellente Buch- und Onlinepublikationen. Geben Sie in Ihrem Web-Browser „R for Beginners“ ein und schon werden Sie mit sehr vielen und hilfreichen Beiträgen und Hinweisen versorgt, die Ihnen den Einstieg in R erleichtern werden. Dennoch möchten wir Ihnen ein paar Worte über R selbst, eine kurze Beschreibung für den Download der Software und der Entwicklungsumgebung R-Studio sowie eine Übersicht über die wichtigsten R-Befehle mit auf den Weg geben. Damit sollten erste Hürden im Schreiben eines R-Programmcodes auf kleine und einfach zu bewältigende Herausforderungen reduziert werden.
Frank Romeike, Manfred Stallinger

Backmatter

Weitere Informationen

Premium Partner

    Bildnachweise