Skip to main content
Erschienen in: Zeitschrift für die gesamte Versicherungswissenschaft 3-4/2019

Open Access 14.01.2020 | Original Article

Modellvalidierung mit Hilfe von Quantil-Quantil-Plots unter Solvency II

verfasst von: Dietmar Pfeifer

Erschienen in: Zeitschrift für die gesamte Versicherungswissenschaft | Ausgabe 3-4/2019

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Nach etlichen Jahren Vorarbeit ist das Projekt Solvency II Anfang 2016 in den Ländern der Europäischen Union legislativ umgesetzt worden. Damit verbunden sind einige wesentliche Änderungen der jeweiligen nationalen Versicherungsaufsichtsgesetze. Ein neuer Aspekt hierbei ist die Vorschrift, potenzielle Abweichungen des Risikoprofils des Unternehmens von den Annahmen, die der Standardformel zur Berechnung des Solvency Capital Requirements (SCR) zugrunde liegen, zu analysieren und zu beurteilen. Für das Prämien- und Reserve-Risiko bzw. die zugehörigen Schaden-Kosten-Quoten wird dabei stillschweigend eine Lognormalverteilung unterstellt. In dieser Arbeit wird ein einfaches, aber dennoch mathematisch korrektes Verfahren auf der Basis von Quantil-Quantil-Plots vorgestellt, mit dem eine solche Analyse durchgeführt werden kann.
Hinweise
Zu diesem Beitrag ist ein Erratum online unter https://​doi.​org/​10.​1007/​s12297-020-00465-x verfügbar.

1 Vorbemerkung

In § 27 des neuen deutschen Versicherungsaufsichtsgesetztes heißt es: Zum Risikomanagementsystem gehört eine unternehmenseigene Risiko- und Solvabilitätsbeurteilung, die Versicherungsunternehmen regelmäßig sowie im Fall wesentlicher Änderungen in ihrem Risikoprofil unverzüglich vorzunehmen haben. … Die Risiko- und Solvabilitätsbeurteilung umfasst mindestens
1.
eine eigenständige Bewertung des Solvabilitätsbedarfs unter Berücksichtigung des spezifischen Risikoprofils, der festgelegten Risikotoleranzlimite und der Geschäftsstrategie des Unternehmens,
 
2.
eine Beurteilung der jederzeitigen Erfüllbarkeit der aufsichtsrechtlichen Eigenmittelanforderungen, der Anforderungen an die versicherungstechnischen Rückstellungen in der Solvabilitätsübersicht und der Risikotragfähigkeit sowie
 
3.
eine Beurteilung der Wesentlichkeit von Abweichungen des Risikoprofils des Unternehmens von den Annahmen, die der Berechnung der Solvabilitätskapitalanforderung mit der Standardformel oder mit dem internen Modell zugrunde liegen.
 
Konkret geht es hierbei um die Annahme einer Lognormalverteilung für das Prämien- und Reserve-Risiko bzw. für die jährlichen Schaden- bzw. Schaden-Kosten-Quoten (vgl. Dreher 2018, S. 912). Eine mathematisch korrekte Überprüfung dieses Sachverhalts kann eigentlich nur mit geeigneten statistischen Tests durchgeführt werden. In dieser Arbeit werden neue asymptotische Formeln hergeleitet, mit denen zum einen diese Annahme mit Hilfe von Quantil-Quantil-Plots überprüft werden kann, zum anderen erwartungstreue Schätzer der zugehörigen Lage-Skalen-Parameter für die logarithmierten Schaden- bzw. Schaden-Kosten-Quoten und damit Momente und Quantile (als Grundlage für das SCR, Solvency Capital Requirement) der entsprechenden Lognormalverteilung hergeleitet werden können. Quantil-Quantil-Plots haben darüber hinaus den Vorteil, die Testergebnisse auch graphisch veranschaulichen zu können, was insbesondere mathematisch weniger geschulten Mitarbeitern von Versicherungsunternehmen entgegenkommen dürfte.

2 Einführung

Graphische Methoden zur statistischen Analyse und Parameterschätzung in Lage-Skalen-Familien von Wahrscheinlichkeitsverteilungen haben eine lange Traditition, sie gehen auf sogenannte „Wahrscheinlichkeitspapiere“ (Quantil-Quantil-Plots) zurück, die etwa ab dem Beginn des 20. Jahrhunderts vor allem im ingenieurwissenschaftlichen Kontext zur Anwendung kamen (vgl. den Übersichtsartikel von Cunnane 1978). Lag der Schwerpunkt zunächst auf der Anpassung der Normalverteilung an hydrologische Beobachtungen, kamen später insbesondere Anpassungen an Extremwertverteilungen und andere Klassen von Wahrscheinlichkeitsverteilungen hinzu (Guo 1990). Eine „optimale“ Wahl der Plot-Positionen (auf der Abszisse) ist dabei eng verbunden mit der Berechnung von Erwartungswerten der geordneten Beobachtungen (sog. Ordnungsstatistiken, vgl. David und Nagaraja 2003).
Später wurden die reinen Schätzverfahren für Lage- und Skalenparameter (oft identisch mit Erwartungswert und Streuung der zugrunde liegenden Verteilung) um geeignete Testverfahren erweitert, mit denen unabhängig von diesen Parametern das Vorliegen eines bestimmten Verteilungstyps überprüft werden kann. Ein interessanter Zugang besteht hier in der Verwendung (einer geeigneten Transformation) des empirischen Korrelationskoeffizienten aus dem Quantil-Quantil-Plot als Testgröße (vgl. Lockhart und Stephens 1998).

3 Quantil-Quantil-Plots und Lage-Skalen-Familien: Schätzer

Betrachtet werden Risiken X der Form \(X=\mu +\sigma Z\) mit einem „Prototypen“ Z und stetiger, streng monotoner Verteilungsfunktion \(F_{Z}.\) Ziel ist die Schätzung der Parameter \(\mu\) und \(\sigma\) sowie die Überprüfung der Verteilungshypothese anhand von n Beobachtungen. Bezeichnet dazu \(X_{\left(k\right)}\) die k-te Ordnungsstatistik (d. h. den k-größten Wert) aus einer Reihe von unabhängigen Replikationen \(X_{1},\cdots ,X_{n}\) von X, so trägt man im Quantil-Quantil-Plot die Größen \(\left(Q_{Z}\left(u_{k}\right),X_{\left(k\right)}\right)\) mit der Quantilfunktion \(Q_{Z}=F_{Z}^{-1}\) und geeigneten \(u_{k},k=1,\cdots ,n\) ab und ermittelt mittels linearer Regression die Ausgleichsgerade mit Achsenabschnitt \(\hat{\mu }\) und Steigung \(\hat{\sigma },\) die gegeben sind durch
$$\hat{\sigma }=\frac{\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}Q_{Z}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}\right)\cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}\;\mathrm{und}\;\hat{\mu }=\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}-\frac{\hat{\sigma }}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)$$
(1)
(vgl. Fahrmeir et al. 2016, Abschn. 3.6.2).
Die Bedeutung der Erwartungswerte der Ordnungsstatistiken für die Parameterschätzungen zeigt sich in der folgenden:
Proposition: Mit der Wahl \(u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)\) für \(k=1,\cdots ,n\) sind \(\hat{\sigma }\) und \(\hat{\mu }\) erwartungstreue Schätzer für \(\sigma\) und \(\mu .\)
Beweis: Aus der obigen Wahl folgt
$$Q_{Z}(u_{k})=E\left(Z_{\left(k\right)}\right)=\frac{E\left(X_{\left(k\right)}\right)-\mu }{\sigma }\;\mathrm{bzw}.\;E\left(X_{\left(k\right)}\right)=\mu +\sigma Q_{Z}\left(u_{k}\right)\;\text{f\"{u}r}\;k=1,\cdots ,n,$$
(2)
wobei \(Z_{\left(k\right)}=\frac{X_{\left(k\right)}-\mu }{\sigma }\) verteilungsmäßig der k-ten Ordnungsstatistik aus einer Reihe von unabhängigen Replikationen \(Z_{1},\cdots ,Z_{n}\) von Z entspricht. Es folgt
$$\begin{array}{l} E\left(\hat{\sigma }\right)=\frac{\frac{1}{n}\sum _{k=1}^{n}E\left(X_{\left(k\right)}\right)Q_{Z}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}E\left(X_{\left(k\right)}\right)\right)\cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}\\ \ =\frac{\frac{1}{n}\sum _{k=1}^{n}\left(\mu +\sigma Q_{Z}\left(u_{k}\right)\right)Q_{Z}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}\left(\mu +\sigma Q_{Z}\left(u_{k}\right)\right)\right)\cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}\\ \ =\frac{\mu \cdot \frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)+\sigma \cdot \frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\mu \cdot \frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)-\sigma \cdot \left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)-\left(\frac{1}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)\right)^{2}}=\sigma \quad \end{array}$$
(3)
und
$$E\left(\hat{\mu }\right)=\frac{1}{n}\sum _{k=1}^{n}E\left(X_{\left(k\right)}\right)-\frac{E\left(\hat{\sigma }\right)}{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)=\frac{1}{n}\sum _{k=1}^{n}\left(\mu +\sigma Q_{Z}\left(u_{k}\right)\right)-\frac{\sigma }{n}\sum _{k=1}^{n}Q_{Z}\left(u_{k}\right)=\mu ,$$
(4)
was zu zeigen war.
Bemerkung: Im Falle einer reinen Skalenfamilie (d. h. \(\mu =0\)) gilt entsprechend
$$\hat{\sigma }=\frac{\frac{1}{n}\sum _{k=1}^{n}X_{\left(k\right)}Q_{Z}\left(u_{k}\right)}{\frac{1}{n}\sum _{k=1}^{n}Q_{Z}^{2}\left(u_{k}\right)}$$
(5)
Auch dieser Schätzer ist erwartungstreu, wenn \(u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)\) für \(k=1,\cdots ,n\) gewählt wird.
Beispiel: Standard-Exponentialverteilung: Hier ist \(F_{Z}(x)=1-e^{-x}\) für \(x>0.\) Da die Ordnungsstatistiken unabhängige, exponentialverteilte Zuwächse besitzen, gilt
$$E\left(Z_{\left(k\right)}\right)=\sum _{i=1}^{k}\frac{1}{n+1-i}\;\text{f\"{u}r}\;k=1,\cdots ,n,$$
(6)
mit
$$u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)=1-\exp \left(-\sum _{i=1}^{k}\frac{1}{n+1-i}\right),\;k=1,\cdots ,n.$$
(7)
Approximativ ergibt sich hieraus mit \(\sum _{j=1}^{m}\frac{1}{j}\approx \ln \left(m+1\right)+\gamma\) (γ = 0,57721… ist die Euler-Konstante) die Beziehung
$$E\left(Z_{\left(k\right)}\right)=\sum _{i=1}^{k}\frac{1}{n+1-i}=\sum _{i=1}^{n}\frac{1}{i}-\sum _{i=1}^{n-k}\frac{1}{i}\approx \ln (n+1)-\ln (n+1-k)=\ln \left(\frac{n+1}{n+1-k}\right)$$
(8)
bzw.
$$\begin{array}{l} \\ \\ \end{array}u_{k}=F_{Z}\left(E\left(Z_{\left(k\right)}\right)\right)=1-\exp \left(-\sum _{i=1}^{k}\frac{1}{n+1-i}\right)\approx \frac{k}{n+1},\:k=1,\cdots ,n.$$
(9)
Dies entspricht der „klassischen“ Empfehlung von Weibull (1939), vgl. auch Cunnane (1978, S. 211) oder Gumbel (1958, Kapitel 1.2.7).
Die Frage, welche Güte eine Schätzung eine hohen Quantils mit diesem Ansatz hat, beispielsweise des \(1-\alpha\)-Quantils \(\mathrm{VaR}_{\alpha }(X)\) (Value at Risk) mit typischerweise kleinem \(\alpha ,\) lässt sich ebenfalls leicht beantworten. Aus der Regressionsgeraden ergibt sich nämlich unmittelbar
$$\widehat{\mathrm{VaR}_{\alpha }\left(X\right)}=\hat{\mu }+\hat{\sigma }\cdot Q_{Z}(1-\alpha )$$
(10)
mit
$$E\widehat{\left(\mathrm{VaR}_{\alpha }\left(X\right)\right)}=\mu +\sigma \cdot Q_{Z}(1-\alpha )=Q_{X}(1-\alpha ),$$
(11)
also ebenfalls eine erwartungstreue Schätzung.
Es gibt allerdings Probleme mit der Erwartungstreue, wenn die Daten vorher (z. B. logarithmisch) transformiert werden, um eine Lage-Skalen-Familie zu erhalten. Im letzterem Fall gilt für das Risiko \(Y=\exp (X)\) nämlich \(\mathrm{VaR}_{\alpha }(Y)=\mathrm{VaR}_{\alpha }\left(e^{X}\right)=e^{{\mathrm{VaR}_{\alpha }}\left(X\right)},\) die übliche Schätzung \(\widehat{\mathrm{VaR}_{\alpha }\left(Y\right)}\colon =e^{\widehat{\mathrm{VaR}_{\alpha }\left(X\right)}}\) besitzt aufgrund der Jensen-Ungleichung für konvexe Funktionen (vgl. etwa Czado und Schmidt 2011, Satz 1.5) aber einen Bias:
$$E\widehat{\left(\mathrm{VaR}_{\alpha }\left(Y\right)\right)}=E\left(e^{\widehat{\mathrm{VaR}_{\alpha }\left(X\right)}}\right)>e^{E\widehat{\left(\mathrm{VaR}_{\alpha }\left(\mathrm{X}\right)\right)}}=e^{{\mathrm{VaR}_{\alpha }}\left(X\right)}=\mathrm{VaR}_{\alpha }(Y).$$
(12)
Im Kontext von Solvency II ist das jedoch eher unschädlich, wenn die Schaden- bzw. Schaden-Kosten-Quoten als lognormalverteilt angenommen werden. Die logarithmierten Schaden- bzw. Schaden-Kosten-Quoten sind dann normalverteilt, so dass hier die Bestimmung bzw. numerische Berechnung der Erwartungswerte der Ordnungsstatistiken der Standard-Normalverteilung (mit Dichte \(\varphi\) und Verteilungsfunktion \(\Upphi\)) relevant ist. Formal gilt hier (vgl. David und Nagaraja 2003, Kapitel 3.1):
$$E\left(Z_{\left(k\right)}\right)=k\left(\begin{array}{l} n\\ k \end{array}\right)\int _{-\infty }^{\infty }x\Phi ^{k-1}(x)\left(1-\Upphi \left(x\right)\right)^{n-k}\varphi (x)dx\;\text{f\"{u}r}\;k=1,\cdots ,n.$$
(13)
Dabei ist
$$\varphi (x)=\frac{1}{\sqrt{2\pi }}\exp \left(-\frac{x^{2}}{2}\right)\;\mathrm{und}\;\Upphi (x)=\int _{-\infty }^{x}\varphi \left(u\right)du\;\text{f\"{u}r}\;x\in \mathbb{R}.$$
(14)
Sowohl \(\Upphi (x)\) als auch \(E\left(Z_{\left(k\right)}\right)\) sind nicht elementar berechenbar. Numerische Auswertungen für \(E\left(Z_{\left(k\right)}\right)\) wurden von Harter (1961) publiziert, für n = 1,···,100 und k = 1,···,n vollumfänglich und für größere n bis 400 in Auszügen. In der Literatur findet man dazu zahlreiche numerische Approximationen, z. B. (vgl. Cunnane 1978, S. 211) (siehe Tab. 1).
Tab. 1
Approximationen für Erwartungswerte von Ordnungsstatistiken
Hazen (1914)
\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,5}{n+1}\right)\)
Weibull (1939)
\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k}{n+1}\right)\)
Beard (1943)
\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,31}{n+0,38}\right)\)
Benard and Bos-Levenbach (1953)
\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,30}{n+0,20}\right)\)
Blom (1958)
\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,375}{n+0,25}\right)\)
Tukey (1962)
\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,333}{n+0,333}\right)\)
Gringorten (1963)
\(E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\frac{k-0,44}{n+0,12}\right)\)
Aus einer selbst durchgeführten größeren Monte-Carlo-Studie ergibt sich als sehr gute Approximation für die Erwartungswerte der Ordnungsstatistiken einer Standard-Normalverteilung:
$$E\left(Z_{\left(k\right)}\right)\approx \Phi ^{-1}\left(\hat{u}_{k}\right)\;\mathrm{mit}\;\hat{u}_{k}=\frac{k-\hat{a}_{n}}{n+\hat{b}_{n}},$$
(15)
wobei
$$\begin{aligned} &\hat{a}_{n}=0,27950585+\frac{0,04684273}{0,34986981+n^{-0,79499457}},\\ &\hat{b}_{n}=0,44480354-\frac{0,09890767}{0,36353365+n^{-0,78493983}},\:k=1,\ldots ,n,\:n\leq 100. \end{aligned}$$
(16)
Der Fehler zwischen den exakten Werten für \(a_{n}\) und \(b_{n}\) (berechnet aus den Werten von Harter 1961) und den approximativen Werten \(\hat{a}_{n}\) und \(\hat{b}_{n}\) gemäß Gl. 16 beträgt für \(3\leq n\leq 100\) jeweils betragsmäßig maximal 0,00007. Abb. 1 und 2 zeigen die exakten Werte von \(a_{n}\) bzw. \(b_{n}\) (Punkte) gegenüber den approximativen Werten \(\hat{a}_{n}\) bzw. \(\hat{b}_{n}\) (gestrichelte Linie).
Durch Vergleich mit den Werten aus Tab. 1 ergibt sich eine sehr gute Übereinstimmung zu Blom (1958) für \(n=12\) und zu Tukey (1962) für \(n=2.\) Die übrigen Approximationsformeln weisen demgegenüber größere Abweichungen auf.
Für \(n\leq 20\) kann auch die relativ gute Approximation
$$\hat{a}_{n}=0,3177n^{0,0661},\:\hat{b}_{n}=\frac{0,3856}{n^{0,1754}},\:k=1,\ldots ,n$$
(17)
verwendet werden mit einem betragsmäßig maximalen Fehler von 0,003.

4 Quantil-Quantil-Plots und Lage-Skalen-Familien: Tests

Es gibt in der Literatur eine Reihe von Vorschlägen zum Testen der Hypothese:
H0
die Verteilung des Risikos X entstammt der Lage-Skalen-Familie zu Z
(sog. einfacher Signifikanztest). Eine gute Übersicht über dieses Thema geben Lockhart und Stephens (1998). Interessant sind hier Tests auf der Basis des empirischen Korrelationskoeffizienten \(\rho _{n}\) aus dem Quantil-Quantil-Plot (Erwartungswerte der Ordnungsstatistiken gemäß Gln. 15 und 16 vs. den der Größe nach angeordneten Beobachtungswerten). Die Tatsache, dass die Verteilung des empirischen Korrelationskoeffizienten unter der Nullhypothese von den Lage- und Skalenparametern unabhängig ist, folgt aus der Invarianz der Korrelation zweier Risiken unter positiv-homogener (linearer) Transformation, vgl. Fahrmeir et al. (2016, Abschnitt 3.4.4). Ähnliche Testverfahren wurden u. a. von Shapiro und Wilk entwickelt, vgl. D’Agostino und Stephens (1986, Kapitel 5) oder Huber-Carol et al. (2002, Kapitel 7). Einen Vergleich über zahlreiche Anpassungstests auf Normalverteilung geben Seier (2002) und Yazici und Yolacan (2007).
In dieser Arbeit schlagen wir eine geringfügige Modifikation der in Lockhart und Stephens (1998) betrachteten Teststatistiken vor, nämlich \(T_{n}\colon =-\ln (1-\rho _{n}).\) Dies hat den Vorteil, dass die Verteilung von \(T_{n}\) unter der Nullhypothese einer Normalverteilung für Werte von \(n\geq 10\) recht gut selbst durch eine Normalverteilung approximiert werden kann, so dass sich die p-Werte für den Anpassungstest einfach, z. B. mit EXCEL, berechnen lassen (zu den Grundlagen von p-Werten vgl. etwa Fahrmeir et al. 2016, Abschnitt 10.2.3). Dieses Ergebnis deckt sich mit einer ähnlichen allgemeinen Aussage über die asymptotische Normalität des empirischen Korrelationskoeffizienten zwischen zwei Zufallsvariablen, vgl. etwa van der Vaart (1998, Example 3.6).
Abb. 3 und 4 zeigen die Wirkungsweise bei einer Fehlerwahrscheinlichkeit 1. Art von 5 %.
Abb. 5678910111213 und 14 zeigen die Histogramme aus jeweils 1 Mio. Simulationen der Verteilung der Teststatistik \(T_{n}\) für n = 11,···,20 mit einer Anpassung an die Normalverteilung.
Die Parameter \(\mu _{n}\) und \(\sigma _{n}\) der angepassten Normalverteilung lassen sich im Bereich n = 10,···,50 recht gut durch folgende Interpolation approximieren (siehe Tab. 2):
$$\hat{\mu }_{n}=\frac{5,87383 n+101,011}{n+35,3404}\;\mathrm{und}\;\hat{\sigma }_{n}=\frac{0,477812 n+3,25495}{n+2,72721}$$
(18)
Tab. 2
Parameterapproximation für Testverteilung
n
\(\mu _{n}\)
\(\hat{\mu }_{n}\)
\(\sigma _{n}\)
\(\hat{\sigma }_{n}\)
10
3,5221
3,5233
0,6323
0,6312
11
3,5727
3,5741
0,6201
0,6200
12
3,6219
3,6226
0,6103
0,6103
13
3,6696
3,6692
0,6005
0,6019
14
3,7152
3,7139
0,5935
0,5945
15
3,7584
3,7568
0,5873
0,5879
16
3,7998
3,7980
0,5813
0,5820
17
3,8385
3,8377
0,5767
0,5768
18
3,8773
3,8759
0,5730
0,5720
19
3,9119
3,9126
0,5679
0,5676
20
3,9475
3,9481
0,5645
0,5637
26
4,1328
4,1364
0,5473
0,5458
50
4,6259
4,6250
0,5138
0,5148

5 Gütebewertung

Abb. 15 und 16 zeigen im Vergleich Histogramme der Verteilung der Teststatistik für \(n=20\) bei den Hypothesen:
H0
die Verteilung des Risikos X entstammt einer Normalverteilung
gegen:
H1
die Verteilung des Risikos X entstammt einer Gumbelverteilung
bzw.:
H2
die Verteilung des Risikos X entstammt einer logistischen Verteilung.
Der Testumfang betrug jeweils 1 Mio. Simulationen.
Erwartungsgemäß ist die Trennschärfe zwischen Normal- und Gumbelverteilung höher als zwischen Normal- und Logistischer Verteilung. Aus den Simulationen lassen sich die Fehlerwahrscheinlichkeiten zweiter \((\beta )\) Art bei gegebener Fehlerwahrscheinlichkeit erster Art \((\alpha )\) (approximativ) bestimmen (siehe Tab. 3).
Tab. 3
Fehlerwahrscheinlichkeiten 2. Art für den Korrelationstest
\(\alpha\)
1 %
5 %
10 %
Kritischer Wert
2,6180
3,0045
3,2159
\(\beta\) Gumbel
84,70 %
69,31 %
59,11 %
\(\beta\) Logistisch
94,92 %
86,73 %
78,84 %
Die Ergebnisse gelten nach Logarithmieren der Daten analog auch für das Testen einer Lognormalverteilung gegen eine Fréchet- bzw. Loglogistische Verteilung.
Es sollte hier noch angemerkt werden, dass der oben vorgestellte Korrelationstest eine im Allgemeinen bessere Trennschärfe besitzt als der Kolmogorov-Smirnov- bzw. Lilliefors-Test (vgl. Dallal und Wilkinson 1986), wie auch schon von Durbin (1961) festgestellt wurde. Dies liegt daran, dass der Korrelationstest – bei gleichem Abstand der Verteilungen – empfindlicher auf Abweichungen in der Form der Verteilungsfunktionen reagiert. Tab. 4 und 5 zeigen zum Vergleich exemplarisch die Fehlerwahrscheinlichkeiten zweiter Art für den Lilliefors-Test mit \(n=20\) bei den Alternativen Gumbel- und Logistische Verteilung auf. Die Daten stammen aus einer selbst durchgeführten Simulationsstudie mit einem jeweiligen Umfang von 1.000.000.
Tab. 4
Fehlerwahrscheinlichkeiten 2. Art für den Lilliefors-Test
\(\alpha\)
1 %
5 %
10 %
Kritischer Wert
0,2230
0,1918
0,1762
\(\beta\) Gumbel
92,15 %
79,60 %
69,84 %
\(\beta\) Logistisch
97,66 %
91,40 %
84,85 %
Tab. 5
Fehlerwahrscheinlichkeiten 2. Art für den Shapiro-Wilk-Test
\(\alpha\)
1 %
5 %
10 %
Kritischer Wert
0,8672
0,9042
0,9199
\(\beta\) Gumbel
84,09 %
68,76 %
58,50 %
\(\beta\) Logistisch
95,94 %
88,38 %
81,90 %
Für die Gumbel-Alternative sind die Fehlerwahrscheinlichkeiten zweiter Art hier nur minimal kleiner als bei dem Korrelationstest, für die Logistische Alternative etwas höher, allerdings deutlich kleiner als beim Lilliefors-Test.

6 Fallstudie

In diesem Abschnitt werden die im vorigen Teil beschriebenen Verfahren anhand von Informationen aus der Versicherungsbranche veranschaulicht. Konkret geht es um brutto-Schaden-Kosten-Quoten der Sparten Sach gesamt, Sach privat, verbundene Gebäudeversicherung (VGV), verbundene Hausratversicherung (VHV), Unfall, Rechtsschutz, Gewerbe und allgemeine Haftpflicht. Die Daten wurden dem vom GDV herausgegebenen Statistischen Taschenbuch der Versicherungsbranche (2018) ab dem Jahr 2000 entnommen (Haftpflicht ab 2004). Es soll geprüft werden, ob die Schaden-Kosten-Quoten lognormal-, also die logarithmierten Quoten normalverteilt sind. Der jeweilige Quantil-Quantil-Plot wird deshalb mit den logarithmierten Quoten erstellt. Die Nullhypothese lautet hier: die (logarithmierten) Quoten sind normalverteilt (siehe Abb. 17181920212223 und 24).
Tab. 6 enthält die Testgrößen \(T_{n}\) und p-Werte für den Korrelationstest sowie zum Vergleich die Testgrößen \(d_{n}\) und \(W_{n}\) sowie p-Werte nach dem Lilliefors- bzw. Shapiro-Wilk-Test. Die p-Werte für die Teststatistiken \(d_{n}\) und \(W_{n}\) wurden durch eine eigene Monte Carlo Studie im Umfang von 1.000.000 ermittelt, vgl. auch Dallal und Wilkinson (1986).
Tab. 6
Testgrößen und p-Werte
 
Korrelationstest
Lilliefors-Test
Shapiro-Wilk-Test
Sparte
\(T_{n}\)
p-Wert (in %)
\(d_{n}\)
p-Wert (in %)
\(W_{n}\)
p-Wert (in %)
Sach gesamt
2,8831
4,32
0,1743
15,17
0,8955
9,67
Sach privat
2,1064
0,09
0,2732
0,11
0,7758
0,20
VGV
2,1378
0,11
0,2481
0,47
0,7785
0,21
VHV
3,3515
17,95
0,1083
83,00
0,9329
33,18
Unfall
3,5261
26,76
0,1670
19,73
0,9280
28,50
Rechtsschutz
4,6539
91,30
0,0936
94,59
0,9763
91,62
Gewerbe
4,1377
67,08
0,1268
61,19
0,9665
79,25
Allgemeine Haftpflicht
3,9443
64,96
0,1795
24,90
0,9395
40,59
Es zeigt sich, dass sich die p-Werte aller Verfahren deutlich unterscheiden, mit der größten Diskrepanz bei den Sparten Sach gesamt, VHV und Allgemeine Haftpflicht. Bei den Sparten Sach privat und VGV lehnen alle Tests bei einer Fehlerwahrscheinlichkeit 1. Art von 1 % die Nullhypothese ab. Bei der Sparte Sach gesamt würde die Nullhypothese bei einer Fehlerwahrscheinlichkeit 1. Art von 5 % mit dem Korrelationstest knapp abgelehnt, mit den anderen beiden Tests dagegen nicht. Bei den Sparten VHV, Unfall, Rechtsschutz, Gewerbe und Allgemeine Haftpflicht wird die Nullhypothese bei einer Fehlerwahrscheinlichkeit 1. Art von 10 % unter allen Tests nicht verworfen.
Als geschätzte Parameter für die Normal- bzw. Lognormalverteilung erhält man jeweils aus dem Achsenabschnitt den geschätzten Erwartungswert \(\hat{\mu }\) und aus der Steigung die geschätzte Streuung \(\hat{\sigma }.\)

7 Fazit

Ein Korrelationstest auf der Basis von Quantil-Quantil-Plots ist einfach durchzuführen und hat gegenüber dem Lilliefors- und anderen Anpassungstests den Vorteil, explizit näherungsweise gute p-Werte aller Größenordnungen für beliebige Stichprobenumfänge zu erhalten, mit einer guten Anpassung der Verteilung der Testgröße an eine Normalverteilung. Empirische Studien zeigen dabei eine vergleichbare Güte zu ähnlichen Testverfahren.
Quantil-Quantil-Plots bieten darüber hinaus den großen Vorteil einer graphischen Veranschaulichung der Testergebnisse, was insbesondere für mathematisch weniger geschulte Mitarbeiter von Versicherungsunternehmen interessant sein dürfte.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.
Literatur
Zurück zum Zitat Beard, L.R.: Statistical analysis in hydrology. Trans. Am. Soc. Civ. Eng. 108 1110–1160 (1943) Beard, L.R.: Statistical analysis in hydrology. Trans. Am. Soc. Civ. Eng. 108 1110–1160 (1943)
Zurück zum Zitat Benard, A., Bos-Levenbach, E.C.: The plotting of observations on probability paper (Dutch). Statistica 7, 163–173 (1953)CrossRef Benard, A., Bos-Levenbach, E.C.: The plotting of observations on probability paper (Dutch). Statistica 7, 163–173 (1953)CrossRef
Zurück zum Zitat Blom, G: Statistical Estimates and Transformed Beta-Variables. Wiley, N.Y. (1958) Blom, G: Statistical Estimates and Transformed Beta-Variables. Wiley, N.Y. (1958)
Zurück zum Zitat Cunnane, C.: Unbiased plotting positions—a review. J. Hydrol. Reg. Stud. 37, 205–222 (1978)CrossRef Cunnane, C.: Unbiased plotting positions—a review. J. Hydrol. Reg. Stud. 37, 205–222 (1978)CrossRef
Zurück zum Zitat Czado, C., Schmidt, T.: Mathematische Statistik. Springer, Berlin (2011)CrossRef Czado, C., Schmidt, T.: Mathematische Statistik. Springer, Berlin (2011)CrossRef
Zurück zum Zitat D’Agostino, R.B., Stephens, M.A.: Goodness-of-Fit Techniques. Marcel Dekker, New York (1986) D’Agostino, R.B., Stephens, M.A.: Goodness-of-Fit Techniques. Marcel Dekker, New York (1986)
Zurück zum Zitat Dallal, G.E., Wilkinson, L.: An analytic approximation to the distribution of Lilliefors’s test statistic for normality. Am Stat 40, 294–295 (1986) Dallal, G.E., Wilkinson, L.: An analytic approximation to the distribution of Lilliefors’s test statistic for normality. Am Stat 40, 294–295 (1986)
Zurück zum Zitat David, H.A., Nagaraja, H.N.: Order statistics, 3. Aufl. Wiley, New York (2003)CrossRef David, H.A., Nagaraja, H.N.: Order statistics, 3. Aufl. Wiley, New York (2003)CrossRef
Zurück zum Zitat Dreher, M. (Hrsg.): Beck’sche Kurzkommentare: Prölss/Dreher: Versicherungsaufsichtsgesetz mit Nebengesetzen, 13. Aufl. C. H. Beck, München (2018) Dreher, M. (Hrsg.): Beck’sche Kurzkommentare: Prölss/Dreher: Versicherungsaufsichtsgesetz mit Nebengesetzen, 13. Aufl. C. H. Beck, München (2018)
Zurück zum Zitat Durbin, J.: Some methods of constructing exact tests. Biometrica 48, 41–65 (1961)CrossRef Durbin, J.: Some methods of constructing exact tests. Biometrica 48, 41–65 (1961)CrossRef
Zurück zum Zitat Fahrmeir, L., Heumann, Ch , Künstler, R., Pigeot, I.: Statistik. Der Weg zur Datenanalyse, 8. Aufl. Springer, Berlin (2016) Fahrmeir, L., Heumann, Ch , Künstler, R., Pigeot, I.: Statistik. Der Weg zur Datenanalyse, 8. Aufl. Springer, Berlin (2016)
Zurück zum Zitat Gesamtverband der Deutschen Versicherungswirtschaft (GDV): Statistisches Taschenbuch der Versicherungswirtschaft 2018. Versicherungswirtschaft, Karlsruhe (2018) Gesamtverband der Deutschen Versicherungswirtschaft (GDV): Statistisches Taschenbuch der Versicherungswirtschaft 2018. Versicherungswirtschaft, Karlsruhe (2018)
Zurück zum Zitat Gringorten, I.I.: A plotting rule for extreme probability paper. Journal of Geophysical Research 68, 813–814 (1963)CrossRef Gringorten, I.I.: A plotting rule for extreme probability paper. Journal of Geophysical Research 68, 813–814 (1963)CrossRef
Zurück zum Zitat Gumbel, E.J.: Statistics of extremes. Columbia University Press, New York (1958)CrossRef Gumbel, E.J.: Statistics of extremes. Columbia University Press, New York (1958)CrossRef
Zurück zum Zitat Guo, S.L.: A discussion on unbiased plotting positions for the general extreme value distribution. J. Hydrol. Reg. Stud. 121, 33–44 (1990)CrossRef Guo, S.L.: A discussion on unbiased plotting positions for the general extreme value distribution. J. Hydrol. Reg. Stud. 121, 33–44 (1990)CrossRef
Zurück zum Zitat Harter, H.L.: Expected values of normal order statistics. Biometrika 48, 151–165 (1961)CrossRef Harter, H.L.: Expected values of normal order statistics. Biometrika 48, 151–165 (1961)CrossRef
Zurück zum Zitat Hazen, A.: Storage to be provided in impounding reservoirs for municipal water supply. Trans. Am. Soc. Cir. Eng. 77, 1547–1550 (1914). Pap. 1308 Hazen, A.: Storage to be provided in impounding reservoirs for municipal water supply. Trans. Am. Soc. Cir. Eng. 77, 1547–1550 (1914). Pap. 1308
Zurück zum Zitat Huber-Carol, C., Balakrishnan, N., Nikulin, M.S., Mesbah, M. (Hrsg.): Goodness-of-fit tests and model validity. Springer, New York (2002) Huber-Carol, C., Balakrishnan, N., Nikulin, M.S., Mesbah, M. (Hrsg.): Goodness-of-fit tests and model validity. Springer, New York (2002)
Zurück zum Zitat Lockhart, R.A., Stephens, M.A.: The probability plot: tests of fit based on the correlation coefficient. In: Balakrishnan, N., Rao, C.R. (Hrsg.) Order statistics: applications Handbook of Statistics 17. S. 453–473. Elsevier, Amsterdam (1998)CrossRef Lockhart, R.A., Stephens, M.A.: The probability plot: tests of fit based on the correlation coefficient. In: Balakrishnan, N., Rao, C.R. (Hrsg.) Order statistics: applications Handbook of Statistics 17. S. 453–473. Elsevier, Amsterdam (1998)CrossRef
Zurück zum Zitat Tukey, J.W.: The future of data analysis. Ann. Math. Statist. 33, 1–67 (1962)CrossRef Tukey, J.W.: The future of data analysis. Ann. Math. Statist. 33, 1–67 (1962)CrossRef
Zurück zum Zitat van der Vaart, A.W.: Asymptotic statistics. Cambridge University Press, Cambridge (1998)CrossRef van der Vaart, A.W.: Asymptotic statistics. Cambridge University Press, Cambridge (1998)CrossRef
Zurück zum Zitat Weibull, W.: A statistical theory of strength of materials. Ing. Vet. Ak. Handl 151, (1939) Weibull, W.: A statistical theory of strength of materials. Ing. Vet. Ak. Handl 151, (1939)
Zurück zum Zitat Yazici, B., Yolacan, S.: A comparison of various tests of normality. J Stat Comput Simul 77, 175–183 (2007)CrossRef Yazici, B., Yolacan, S.: A comparison of various tests of normality. J Stat Comput Simul 77, 175–183 (2007)CrossRef
Metadaten
Titel
Modellvalidierung mit Hilfe von Quantil-Quantil-Plots unter Solvency II
verfasst von
Dietmar Pfeifer
Publikationsdatum
14.01.2020
Verlag
Springer Berlin Heidelberg
Erschienen in
Zeitschrift für die gesamte Versicherungswissenschaft / Ausgabe 3-4/2019
Print ISSN: 0044-2585
Elektronische ISSN: 1865-9748
DOI
https://doi.org/10.1007/s12297-019-00451-y

Weitere Artikel der Ausgabe 3-4/2019

Zeitschrift für die gesamte Versicherungswissenschaft 3-4/2019 Zur Ausgabe