Skip to main content
Erschienen in:
Buchtitelbild

Open Access 2024 | OriginalPaper | Buchkapitel

Ungewissheiten bezüglich der Langzeitsicherheit von Endlagern: Qualitative und quantitative Bewertung

verfasst von : Klaus-Jürgen Röhlig

Erschienen in: Entscheidungen in die weite Zukunft

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Der Beitrag fokussiert auf die Langzeitsicherheit eines verschlossenen Endlagers. Er gibt einen Überblick zu Möglichkeiten der qualitativen und quantitativen Bewertung von Ungewissheiten und ihrer Relevanz für die Sicherheit und zeigt exemplarisch einige Möglichkeiten zur grafischen Darstellung diesbezüglicher Analyseergebnisse auf. Zur quantitativen Bewertung steht eine Reihe mathematischer Methoden zur Verfügung, durchgesetzt hat sich aus mehreren Gründen eine Kombination von deterministischen und probabilistischen Ansätzen. Im Einzelnen bestehen jedoch unterschiedliche Möglichkeiten dahin gehend, für welchen Typ von Ungewissheit deterministische und für welchen Typ probabilistische Ansätze zum Einsatz kommen, in wie weit die Behandlung verschiedener Ungewissheiten in eine zusammenführende Analyse mündet, welche Ergebnisgrößen („Indikatoren“) betrachtet werden und welche Formen der Ergebniskommunikation gewählt werden. Solche Unterschiede sind zum Teil unterschiedlichen nationalen Regelwerken geschuldet, aber es bestehen auch viele Freiheitsgrade innerhalb dieser Vorgaben. Vor- und Nachteile insbesondere der Wahl von Indikatoren sowie von unterschiedlichen Methoden hinsichtlich ihrer internen Logik und der jeweiligen Darstellungsweisen und deren Kommunizierbarkeit sollten weiter erforscht und erprobt werden.

1 Ungewissheiten hinsichtlich der Langzeitsicherheit: Kategorien

Ein wesentliches Ziel des Safety Case (vgl. Röhlig 2024) ist die Darlegung von Ungewissheiten sowie die Bewertung ihrer Bedeutung zum Zeitpunkt der Erstellung des Safety Case und im Kontext des dann aktuellen Schritts der Endlagerentwicklung, um so zu Empfehlungen zum weiteren Vorgehen zu gelangen. Dies gilt auch für die vorläufigen Sicherheitsuntersuchungen im Rahmen des deutschen Standortauswahlverfahrens und wird in den Paragraphen 11 (Bewertung von Ungewissheiten) und 12 (Ableitung des Erkundungs-, Forschungs- und Entwicklungsbedarfs) der einschlägigen Verordnung (EndlSiUntV 2020) entsprechend gefordert.
Rahn et al. (2024) legen die systematische Ableitung solcher Empfehlungen im Rahmen des Schweizer Standortauswahlverfahrens dar. Entsprechend spielen geowissenschaftliche Erwägungen eine besondere Rolle bei dieser Ableitung. So ist die Frage, ob geowissenschaftliche Untersuchungen im Rahmen der Standortcharakterisierung zur Verringerung von Ungewissheiten beitragen können, von zentraler Bedeutung. Dies ist auch der Tatsache geschuldet, dass sich die geplanten Sicherheitskonzepte und Endlagerauslegungen für die im Schweizer Verfahren betrachteten Standortregionen nicht grundlegend voneinander unterscheiden, auch wenn die Frage nach einer gemeinsamen Einlagerung von hochaktiven Abfällen (HAA) mit schwach- und mittelaktiven Abfällen (SAA) („Kombilager“, „co-disposal“) offen blieb (Nagra 2002, 2011, 2020).1 Dies wird im deutschen Verfahren voraussichtlich anders sein: Aufgrund der gesetzmäßigen Orientierung auf drei unterschiedliche Wirtsgesteine („Steinsalz, Tongestein und Kristallingestein“, StandAG 2020) gilt es im Rahmen des deutschen Verfahrens, unterschiedliche Sicherheitskonzepte und Endlagerauslegungen zu erarbeiten und in der Standortauswahl zu berücksichtigen, entsprechend muss auch „Entwicklungsbedarf“ (EndlSiUntV 2020) bezüglich der Konzepte und Auslegungen ausgewiesen werden. Solche Entwicklungen erfolgen auch in der Schweiz, sind aber für die Standortauswahl selbst von geringerer Bedeutung.
Einen Anspruch auf Allgemeinheit erheben das das von Eckhardt (2020) vorgeschlagenen Vier-Felder-Schema „Sicherheitsrelevanz / Tragweite / Aussagenqualität / Behebungspotenzial“ und die daraus abgeleiteten generischen Handlungsempfehlungen. Solche Empfehlungen können zum Beispiel eine Verringerung der Ungewissheit durch Standorterkundung oder Forschung, aber auch eine Abschwächung der sicherheitsrelevanten Folgen oder ein Vermeiden der Ungewissheit zum Beispiel durch geeignete Auslegungsmaßnahmen sein (Vigfusson et al. 2007). Unter Umständen ist die Ungewissheit aber auch zu akzeptieren (Eckhardt 2020; Röhlig 2024).
Um eine Darlegung und Bewertung von Ungewissheiten in systematischer Weise zu ermöglichen, muss die jeweilige Ungewissheit zunächst charakterisiert und eingeordnet werden.
„In der Literatur findet sich häufig folgende Unterscheidung […]:
  • Aleatorische Ungewissheiten sind „Zufälligkeiten“, die dem betrachteten System innewohnen. Sie lassen sich nicht reduzieren oder beheben, lassen sich aber durch statistische Gesetze beschreiben, die sich günstigenfalls durch oft wiederholte Beobachtungen (z. B. häufige Messungen) und statistische Verfahren näherungsweise ermitteln lassen.
  • Epistemische Ungewissheiten beruhen auf mangelnder Kenntnis, die Ursache liegt also nicht beim betrachteten System, sondern beim Menschen. Sie können zumindest prinzipiell durch Forschung oder Standorterkundung behoben oder verringert werden.“ (Röhlig 2021; vgl. dazu z. B. auch Galson und Kursheed 2007)
Eine klare Abgrenzung beider Typen gelingt jedoch nicht immer. Im Rahmen der Bewertung der Langzeitsicherheit hat sich eine pragmatischere und enger an den Vorgehensweisen in Langzeitsicherheitsanalysen, einem zentralen Element des Safety Case zur Abschätzung und Bewertung der Sicherheit nach Endlagerverschluss (Langzeitsicherheit), orientierte Unterscheidung oft als zielführender erwiesen – Ungewissheiten können folgende Fragen betreffen:
  • Wie wird sich das System entwickeln?
  • Wie gut verstehen wir das System, wie gut können wir es (z. B. in Modellrechnungen / Computersimulationen) abbilden?
  • Rechnen wir mit den „richtigen“ Zahlen?
Die gebräuchlichen, aber etwas verkürzenden Bezeichnungen für die entsprechenden Typen von Ungewissheiten folgen wichtigen Komponenten der Langzeitsicherheitsanalyse: Im Rahmen solcher Sicherheitsanalysen werden u. a. so genannte Szenarien (in der Endlagersicherheitsanforderungsverordnung EndlSiAnfV 2020: „Entwicklungen“) systematisch abgeleitet. Dies sind Beschreibungen potenzieller Entwicklungen des Endlagersystems über den Bewertungszeitraum (in Deutschland: 1 Million Jahre). Diese sollen in ihrer Gesamtheit die Entwicklung abdecken, die das System tatsächlich nehmen wird. Auf der Grundlage dieser Szenarien werden Computersimulationen (Modellrechnungen) durchgeführt (numerische Analyse), die Auskunft über das Zusammenspiel der Phänomene und Prozesse geben und mit denen auch so genannte Indikatoren berechnet werden. Indikatoren sind Größen, die Aussagen z. B. zum Zustand einzelner Barrieren (Beispiel: Durchlässigkeit eines Verschlussbauwerks) oder auch zu potenziellen Auswirkungen auf Mensch und Umwelt (Beispiel: jährliche effektive Individualdosis) erlauben. Indikatoren geben also Auskunft über vorteilhafte und ungünstige, akzeptable und inakzeptable Systemzustände. Simulationen zur Berechnung von Indikatoren benötigen quantifizierte Eingangsgrößen (Parameter).
Dieser Vorgehensweise folgend werden – in der Reihenfolge der Aufzählung oben und mit etwas vereinfachenden Bezeichnungen – Szenarien-, Modell- bzw. Parameterungewissheiten unterschieden. Rahn et al. (2024) differenzieren im Fall der Modellungewissheiten noch zwischen „Unsicherheiten bezüglich Konzeptualisierungen“ und bezüglich „Rechenmodellen“ (also numerischen Modellen bzw. Computercodes).2 Die Beziehung zwischen beiden Ansätzen zur Kategorisierung von Ungewissheiten ist in Abb. 1 dargestellt.
Auf eine weitere gebräuchliche Kategorisierung von Ungewissheiten – der nach „known unknowns“ / „unknown / ignored knowns“ / „unknown unknowns“ (vgl. Eckhardt 2024) soll hier nicht näher eingegangen werden. Schwerpunkt der weiteren Darstellungen sind die sogenannten „known unknowns“, also diejenigen Ungewissheiten, derer sich die Handelnden bewusst sind und die auch bewusst im Safety Case adressiert werden. Naturgemäß werden die beiden anderen Typen im Safety Case nicht explizit behandelt – dies ist ja gerade das bestimmende Merkmal dieser Kategorien. Zum Umgang mit ihnen sei hier nur – stark verkürzend – folgendes gesagt:
Wichtigste Maßnahme zur Vermeidung des Ausblendens eigentlich bekannter Probleme (“ignored knowns“) ist die Einführung, Umsetzung und stetige Weiterentwicklung einer angemessenen Sicherheitskultur und eines Sicherheitsmanagements (Röhlig und Sträter 2022). Diese ist entsprechend zu dokumentieren, nach den Regelungen in Deutschland jedoch außerhalb des Rahmens der technisch orientierten Sicherheitsuntersuchungen bzw. –berichte (ESK 2021).
Wichtige Maßnahmen, um die Menge von „unknown unknowns“, also von Sachverhalten, von denen wir nicht wissen, dass wir sie nicht kennen, möglichst klein zu halten bzw. ihre Auswirkungen zu begrenzen, erfolgen im Rahmen der Standortauswahl und der Konzeption des Endlagers:
  • Anzustreben ist die Auswahl eines Standorts mit möglichst unkomplizierter, „langweiliger“ und homogener Geologie, also eines geowissenschaftlich eigentlich „uninteressanten“ Standorts.
  • Auch die Endlagerauslegung soll Komplexitäten möglichst vermeiden und einfach und unempfindlich gegen Störungen und Ungewissheiten sein.
Die Konzeption und Umsetzung dieser wie auch aller anderen Maßnahmen zum Erreichen von Sicherheit erfolgen außerhalb der Methodik des Safety Case (vgl. Röhlig 2024), der dem Demonstrieren von Sicherheit dient. Beide Aspekte sind jedoch verbunden: Das Konzept zum Erreichen von Sicherheit (das Sicherheitskonzept gemäß § 10 der Endlagersicherheitsanforderungsverordnung EndlSiAnfV 2020 und § 6 der Endlagersicherheitsuntersuchungsverordnung EndlSiUntV 2020) ist im Rahmen von Safety Cases oder Sicherheitsuntersuchungen ebenso zu dokumentieren wie die Endlagerauslegung (§ 11 EndlSiAnfV; § 6 EndlSiUntV) und der geowissenschaftliche Wissensstand zum Standort (§ 5 EndlSiUntV).
Eine Schnittstelle der Aktivitäten zum Erreichen und zum Demonstrieren von Sicherheit ergibt sich im sogenannten Anforderungsmanagement, also in der Absicherung der materiellen Umsetzung von sicherheitsgerichteten Anforderungen. Das „Anforderungsmanagementsystem“ (VAHA von Finnisch „vaatimusten hallintajärjestelmän“) ist z. B. integraler Bestandteil des finnischen Safety Case (Posiva 2012), eine knappe Beschreibung gibt Röhlig (2021).
Weiterhin gilt es zum Demonstrieren von Sicherheit, durch eine möglichst umfassende Sicherheitsuntersuchung möglichst viele Sachverhalte zu antizipieren oder zumindest abzudecken – inklusive „unvorhersehbarer“ Sachverhalte (unknown unknowns). Hierbei geht man im Rahmen von sogenannten Stresstests unter Betrachtung von hypothetischen „what-if“-Szenarien („Entwicklungen, die selbst unter ungünstigen Annahmen nach menschlichem Ermessen auszuschließen sind“, EndlSiAnfV 2020) über das in den Grenzen der praktischen Vernunft als möglich erachtete hinaus – man verändert z. B. Parameterwerte in Modellrechnungen zum Ungünstigen über das physikalisch Mögliche hinaus oder lässt gedanklich und in den Modellierungen Barrieren weg, um so die Unempfindlichkeit des Systems gegen Unerwartetes („Robustheit“) zu zeigen. „Die Erfahrung zeigt allerdings auch, dass es schwierig ist, den Charakter solcher Szenarien zu kommunizieren – die Ergebnisse werden oft als realistische Prognosen (miss-)verstanden.“ (Röhlig 2021)

2 Eingrenzung von Ungewissheiten durch professionelles und methodisch abgesichertes Vorgehen

Zunächst gilt, dass im Safety Case Modell-, Szenarien- und Parameterungewissheiten zu identifizieren, sie also zu „known unknowns“ zu machen und sie dann möglichst einzugrenzen sind, Ansätze hierzu sind z. B.
  • die Konzeptualisierung von Modellen nach dem Stand von Wissenschaft und Technik und den Regeln wissenschaftlicher Praxis,
  • Maßnahmen der Software-Qualitätssicherung,
  • Modellqualifizierungen durch den Vergleich mit analytischen Lösungen, mit anderen Modellen und den Ergebnissen von Labor- und Feldversuchen sowie mit natürlichen Analoga,
  • in entsprechender Weise Qualifizierungen der erhobenen und verwendeten Daten und
  • die Anwendung adäquater Methoden zur systematischen, transparenten und nachvollziehbaren Entwicklung von Szenarien und Ableitung von Rechenfällen.
Detaillierte Darstellungen hierzu bieten z. B. Hansen (2006); Galson und Morris (2009) und OECD/NEA (2012a, 2016). Über diese Darstellungen hinaus ist anzumerken, dass der Erfolg und die Effektivität der oben aufgeführten Ansätze sämtlich von menschlichen und organisatorischen Faktoren abhängen (Sträter 2020) – dies gilt ebenso für alle anderen Handlungen und Maßnahmen zum Erreichen oder Demonstrieren von Sicherheit. Diesbezügliche Ungewissheiten sind nicht Gegenstand des vorliegenden Beitrags.

3 Qualitative und quantitative Aussagen zu Szenarien, Modellrechnungen und Parametern

Um Entscheidungen zum weiteren Vorgehen zu ermöglichen, muss im Safety Case die Sicherheitsrelevanz der „verbleibenden“ Ungewissheiten eingeschätzt werden. Hierbei bietet es sich an, sich auf sicherheitsrelevante Aussagen zu potenziellen Zuständen des Endlagersystems bzw. einzelner Teile oder Subsysteme sowie der Eintrittswahrscheinlichkeiten für diese Zustände zu stützen. Solche Aussagen können qualitativ oder quantitativ sein. Sie beruhen auf Szenarien (s. voriger Abschnitt), also Beschreibungen potenzieller Entwicklungen des Endlagersystems. Quantitative Aussagen beruhen in der Regel auf Abschätzungen bzw. Modellrechnungen (Computersimulationen) auf der Basis der jeweils betrachteten Szenarien. Ergebnisse der Modellrechnungen sind sogenannte Indikatoren, d. h. Größen, die Aussagen z. B. zum Zustand einzelner Barrieren oder auch zu potenziellen Einwirkungen auf Mensch und Umwelt erlauben (s. o.).
Beispiele für Indikatoren sind Abschätzungen für die Korrosionsgeschwindigkeit von Barrierematerialien, für den hydraulischen Widerstand bzw. die Durchlässigkeit eines Verschlussbauwerks oder auch für die zusätzliche (durch das Endlager hervorgerufene) jährliche effektive Dosis für potenziell exponierte Personen, die künftig in der Umgebung des Endlagers leben könnten. Eine ausführliche Darstellung zu verschiedenen Typen von Indikatoren und ihrer Verwendung gibt OECD/NEA (2012b).
Die mit den Indikatorwerten verbundenen Wahrscheinlichkeitsaussagen basieren auf Überlegungen zur Eintrittswahrscheinlichkeit des jeweils zugrunde gelegten Szenarios und zur Ungewissheit der bei den Rechnungen verwendeten Eingangsparameter. Solche Aussagen können qualitativ-verbal (etwa „sehr wahrscheinlich“ oder „wenig plausibel“) oder quantitativ sein.
So fordert die Endlagersicherheitsanforderungsverordnung (EndlSiAnfV 2020) die Einstufung von „Entwicklungen“ (d. h. Szenarien) als „zu erwartend“, „abweichend“ und „hypothetisch“, also eine qualitative Einschätzung. Für den Umgang mit Ungewissheiten bezüglich der verwendeten Parameterwerte werden keine detaillierten Hinweise gegeben, die Endlagersicherheitsuntersuchungsverordnung (EndlSiUntV 2020) fordert lediglich eine systematische Ausweisung und Bewertung von Ungewissheiten sowie Aussagen zu deren „Einfluss auf die Zuverlässigkeit der Sicherheits-gerichteten Aussagen“ (§ 11).
Andere Regelwerke erfordern dagegen quantitative Abschätzungen. So wird zum Beispiel in den Anforderungen der Environment Protection Agency EPA (2022) gefordert, dass die Freisetzungen von Radionukliden (berechnet als gewichtete Summe von Nuklidströmen) in die zugängliche Umwelt „aufgrund aller signifikanter Prozesse und Ereignisse, die das Endlagersystem beeinflussen könnten“3 mit einer Wahrscheinlichkeit von weniger als 1/10 einen bestimmten Grenzwert sowie mit einer Wahrscheinlichkeit von weniger als 1/1000 das Zehnfache dieses Grenzwerts nicht überschreiten dürfen. Die bedeutet letztlich, dass quantitative Angaben sowohl zur Eintrittswahrscheinlichkeiten von Szenarien als auch für die in den Modellrechnungen verwendeten Parameterkonstellationen erforderlich sind. Die deutsche Regelgebung dagegen schließt solche Aussagen und Vorgehensweisen zwar nicht aus, fordert sie jedoch auch nicht.
Die Quantifizierung von Eintrittswahrscheinlichkeiten von Szenarien gestaltet sich in vielen Fällen schwierig, nur selten gelingt eine Vorgehensweise wie z. B. beim Szenario „Behälterversagen durch Scherbelastung“ („canister failure due to shear load“) in der schwedischen Sicherheitsanalyse für ein Endlager für ausgediente Brennelemente am Standort Forsmark (SKB 2011): Im Szenario wird ein postglaziales Erdbeben unterstellt, das zu einer Bewegung des Wirtsgesteins entlang von Klüften führt. Wird nun ein Endlagerbehälter in einem Bohrloch eingelagert, das eine Kluft schneidet, so kann dieser durch die Scherbewegung beschädigt werden und es kommt zur Freisetzung von Schadstoffen (z. B. Radionukliden) aus den eingelagerten hochradioaktiven Brennelementen. Voraussetzung hierfür ist eine hinreichend große Scherbewegung. Diese wiederum hängt von der Größe der Kluft und der Magnitude des Erdbebens ab. Die von Svensk Kärnbränslehantering AB (SKB) entwickelte Strategie zum Platzieren, Auswählen und ggf. Verwerfen von Einlagerungsbohrlöchern verringert die Wahrscheinlichkeit, dass mit der Einlagerung Klüfte mit kritischer Größe „getroffen“ werden, kann sie jedoch nicht auf Null senken, da sich Lage und Größe einzelner Klüfte nicht vollständig charakterisieren lassen. Da das Netzwerk der Klüfte jedoch statistisch beschrieben werden kann, lassen sich Wahrscheinlichkeiten für das irrtümliche „Treffen“ von Klüften kritischer Größe abschätzen. Anhand von Erdbebenstatistiken kann man außerdem die Häufigkeit von Erdbeben kritischer Magnitude abschätzen. Über eine Kombination beider Größen gelangt man zu einer Abschätzung, mit welcher Wahrscheinlichkeit ein Behälter auf diesem Weg geschädigt werden kann. Wie oben angedeutet, ist diese Möglichkeit einer Quantifizierung selten. Für andere in der schwedischen Sicherheitsanalyse betrachteten Szenarien gelingt Analoges z. B. nicht, die Eintrittswahrscheinlichkeiten wurden „konservativ“ mit 1 abgeschätzt – es wird also unterstellt, dass die Szenarien jeweils mit Sicherheit eintreten.
Ungewissheiten hinsichtlich der in den Modellrechnungen verwendeten Parameterkonstellationen haben unterschiedliche Ursachen und Quellen: Manche Parameter weisen eine (ggf. räumliche und/oder zeitliche) Variabilität auf, andere sind „aufskalierte“ Werte, die einen Prozess auf einer größeren Skala charakterisieren, der eigentlich auf einer kleineren, modelltechnisch nicht erfassbaren Skala stattfindet oder im Labor gemessen werden kann (z. B. Permeabilität eines porösen Mediums). Wieder andere sind vereinfachende Beschreibungen eigentlich komplexerer Prozesse (z. B. Verteilungskoeffizienten als Beschreibung des Sorptionsverhaltens). Allgemeiner kann ausgesagt werden, dass Modellparameter häufig nicht direkt gemessen werden können, sondern aus gemessenen und/oder abgeschätzten Größen abgeleitet werden müssen. Messungen selbst wiederum unterliegen einer Messungenauigkeit und Messabweichungen können nicht per se ausgeschlossen werden.
Für alle Typen von Ungewissheiten ist man an der Frage interessiert, was diese Ungewissheiten für die Ergebnisse (z. B. von Modellrechnungen) bedeuten. Zunächst sei darauf hingewiesen, dass auch nach Einsatz aller „qualitätssichernder“ Maßnahmen (s. o.) Modellungewissheiten verbleiben und untersucht werden müssen, indem man zum Beispiel die Rechnungen mit unterschiedlichen Modellen durchführt. Diese können z. B. unterschiedliche phänomenologische Verständnisse, aber auch unterschiedliche Grade und Arten von Modellvereinfachungen widerspiegeln.
Wie wirken sich Ungewissheiten in den Eingangsgrößen nun aber auf die Ergebnisse der Modellrechnungen aus? Auch wenn dies trivial klingt – man erhält Aussagen zu dieser Frage durch „Probieren“: In einer Serie von Modellrechnungen für möglichst sinnvoll ausgewählte Parameterkonstellationen wird der Raum möglicher Ergebnisse erkundet, um so Parameterungewissheiten zu charakterisieren. Diese Möglichkeit besteht auch für Szenarienungewissheiten – Modellrechnungen können auch für unterschiedliche Szenarien durchgeführt werden, dann jedoch unter Verwendung ggf. unterschiedlicher, an das jeweils betrachtete Szenario angepasster Simulationsmodelle.
Mehrere Fragestellungen sind bei einem solchen Vorgehen interessant:
1.
Was ist der Raum möglicher Ergebnisse?
 
2.
Welche dieser Ergebnisse sind plausibler (wahrscheinlicher), welche sind weniger plausibel?
 
3.
Was bedeutet das im Hinblick auf Sicherheit?
 
4.
Welche Ungewissheiten der verwendeten Informationen (Paramater, Szenarien, Modelle) haben besondere Bedeutung für die Ungewissheiten der Antworten auf die drei vorangegangenen Fragen, welche haben einen geringen Einfluss?
 

4 Deterministische Vorgehensweise

Parameterungewissheiten können in unterschiedlicher Weise charakterisiert werden: Im einfachsten Fall benennt man nur einzelne mögliche Parameterwerte (deterministische Vorgehensweise) und belegt sie ggf. mit Attributen wie „obere Abschätzung“, „untere Abschätzung“, „beste Schätzung“, „best guess“ o. ä. Ein in diesem Kontext häufig verwendeter, aber fehlerträchtiger Begriff ist der der „konservativen Schätzung“. Die „Konservativität“ einer Schätzung bezieht sich nicht auf den Modell-(Eingangs-)Parameter selbst, sondern auf seinen Einfluss auf das Ergebnis der Modellierung: Ein „konservativ“ abgeschätzter Parameter soll zu einer im Vergleich zum realen Systemverhalten sicherheitstechnisch ungünstigeren Aussage (zu einem ungünstigeren Indikatorwert) führen. Wenn dieses dann zu einer sicherheitstechnisch (noch) akzeptablen Aussage führt, ist gesichert, dass auch der „wahre“ (aber unbekannte) Parameterwert zu sicherheitstechnisch akzeptablen Ergebnissen führt.
Im Rahmen einer deterministischen Vorgehensweise erfolgt das „Probieren“ (s. o.) indem zielgerichtet den einzelnen Parametern „obere“, „untere“, „konservative“ oder auch „beste“ Schätzwerte zugeordnet werden und Modellrechnungen mit unterschiedlichen so entstandenen Konstellationen durchgeführt werden. Auch unterschiedliche Szenarien oder Modelle können auf diese Art deterministisch analysiert werden.
Aus dem Verhalten der Ergebnisse (Indikatoren) werden dann Aussagen zu deren Wertebereich (Frage 1 oben) abgeleitet. Aussagen zu Frage 2 sind begrenzt und in qualitativer Weise möglich: Wird eine Parameterkombination als plausibler als eine andere eingeschätzt, so überträgt sich diese Einschätzung auf die zugehörigen Ergebnisse und ggf. auf die daraus abgeleitete Sicherheitsaussage (Frage 3). Werden einzelne Parameter im Rahmen einer deterministischen Vorgehensweise verändert, gelingen auch Aussagen zum Einfluss genau dieser Parameter auf das Ergebnis (Frage 4).
Ein deterministisches Vorgehen sollte in jedem Fall am Beginn jeder Untersuchung auf der Basis von Modellrechnungen (numerische Analyse) stehen: Es muss erkundet werden, ob das Modell (der Computercode) funktioniert, ob plausible Ergebnisse entstehen und welche Fehlerquellen es gibt.
Eine „konservative“ Wahl von Parametern nimmt im Rahmen einer deterministischen Vorgehensweise eine besondere Stellung ein. Eine solche Wahl ist insbesondere in Genehmigungssituationen üblich und plausibel: Wenn alle Ungewissheiten möglichst ungünstig abgeschätzt werden und das Ergebnis trotzdem akzeptabel ist, befindet man sich „auf der sicheren Seite“. Eine „konservative“ Vorgehensweise birgt jedoch auch einige Tücken – so ist es nicht immer offensichtlich, welche Parameterwahl “konservativ“ ist: Um Aussagen zur Konservativität abzuleiten, muss das Modellverhalten im Prinzip bekannt sein. So kann eine „obere“ bzw. „untere“ Schätzung nur dann auch „konservativ“ sein, wenn das Modellergebnis monoton von der betrachteten Größe abhängt. Ist dies nicht der Fall, muss der „konservative“ Wert irgendwo zwischen diesen beiden Größen gesucht werden.
Selbst scheinbar einfache Aussagen zur „Konservativität“ können in die Irre führen – ein Beispiel hierfür ist die naheliegende, aber nicht immer richtige Annahme, dass das Postulieren eines möglichst kleinen Verteilungskoeffizienten für den Transport (die Migration) eines Radionuklids im Untergrund konservativ wäre. Für das betrachtete Radionuklid ist dies zunächst richtig: Kleine Verteilungskoeffizienten sind Ausdruck geringer Sorption und geringerer Migrationsverzögerung, das Radionuklid gelangt also (hypothetisch) schnell zu den potenziell exponierten Personen und bewirkt bei ihnen (hypothetisch) den größtmöglichen Schaden. Zerfällt dieses Radionuklid jedoch in ein radiologisch deutlich wirksameres, also schädlicheres, Tochternuklid, so bewirkt die Annahme eines größeren Verteilungskoeffizienten, dass dem Mutternuklid im Untergrund mehr Zeit zum Zerfall in diese Tochter zur Verfügung steht, es gelangen größere Mengen der Tochter zu den potenziell exponierten Personen und bewirken einen größeren Schaden. Demzufolge wäre diese Parameterwahl die „konservative“ Wahl.
Ein weiteres Problem konservativer Abschätzungen ist, dass sie den Blick auf das „wahre“ oder zumindest „plausible“ Systemverhalten verstellen können, im Extremfall werden möglicherweise mehrere „konservative“ Entscheidungen aus unterschiedlichen Bereichen oder für unterschiedliche Parameter aneinandergereiht und das Modellverhalten weicht immer weiter von dem ab, was man für das modellierte System eigentlich erwartet („Überkonservativität“). Falls dies immer noch zu einer akzeptablen Sicherheitsaussage führt, mag das in einer Genehmigungssituation vertretbar sein. Der Umkehrschluss, dass also bei einer so entstandenen nicht akzeptablen Sicherheitsaussage das System tatsächlich unsicher wäre, ist jedoch nicht richtig. Richtig ist nur, dass in der zugrunde liegenden Rechnung die Konsequenz – z. B. eine effektive Dosis – überschätzt wurde. Wenn ein solcher Dosiswert nun oberhalb des regulatorisch festgelegten Grenzwerts liegt, würde dies auf eine nicht akzeptable Sicherheitsaussage führen. Es ist jedoch unbekannt, um wieviel die Dosis überschätzt wurde. Daher kann auch nicht gesagt werden, ob bei einem „Abbau“ von Konservativität – etwa, indem durch Forschungsarbeit die Parameterungewissheit verkleinert wird – eine akzeptable Sicherheitsaussage (etwa ein Dosiswert unterhalb eines Grenzwerts) abgeleitet werden könnte.
Ebenfalls problematisch ist ein „konservatives“ oder gar „überkonservatives“ Vorgehen, wenn damit Optimierungsentscheidungen gestützt werden sollen. Solche Entscheidungen (z. B. zur Standortauswahl, zur Materialwahl für Barrieren usw.) sollten immer auf einem möglichst guten Systemverständnis beruhen und nicht auf einem durch (Über-)Konservativitäten verzerrten Bild des Systems.
Die deutschen Sicherheitsanforderungen (EndlSiAnfV 2020) zielen explizit auf Optimierung des Endlagersystems ab und fordern entsprechend eine Setzung von Prioritäten hinsichtlich der Betrachtung von Szenarien („Entwicklungen“) im Optimierungsprozess (§ 12 Absatz 3 – Priorität der erwarteten, nachrangig der abweichenden und schließlich der hypothetischen Entwicklungen). Die Endlagersicherheitsuntersuchungsverordnung (EndlSiUntV 2020) verlangt „Modellierungen auf Grundlage realitätsnaher Annahmen“. In der Begründung wird erläutert: „Hinsichtlich der Eingangsparameter sind realitätsnahe Werte (z. B. Medianwerte der bei der Erkundung erhobenen Daten) anzusetzen; von übermäßig konservativen Annahmen sollte abgesehen werden, da diese in den Sensitivitätsanalysen relevante Effekte überdecken können.“ (Deutscher Bundestag 2020)
Mit Sensitivitätsanalysen wird untersucht, welche Ungewissheiten in den Eingangsparametern den größten, welche einen kleineren oder gar keinen Einfluss auf die Ungewissheit des Ergebnisses haben. Auch hier gilt, dass Konservativitäten das Bild des Systemverhaltens und damit auch Sensitivitätsaussagen verzerren.

5 Probabilistische Ansätze

Bei einer Arbeit mit einzelnen Parametern („obere Abschätzung“, „untere Abschätzung“, „beste Schätzung“, „best guess“, s. o.), Modellen und Szenarien, also einer deterministischen Vorgehensweise, kann eine Abgrenzung des Ergebnisraums (Frage 1, s. o.) erfolgen, möglicherweise gelingen auch qualitative und auf Einzelaspekte begrenzte Antworten auf die Frage 2-4, s. o. Eine genauere Erkundung des Ergebnisraums gelingt aufgrund der Multidimensionalität der Eingangsgrößen jedoch nur mittels der Durchführung einer Vielzahl (hunderter, ggf. tausender) Simulationen. In wie weit dies möglich ist, hängt vom Aufwand für jede einzelne Rechnung in Relation zu den verfügbaren Kapazitäten ab (Rechenzeiten können je nach den verwendeten Modellen Bruchteile von Sekunden, aber auch mehrere Wochen pro Simulation sein). Entscheidend ist die Anwendung sinnvoller Strategien zur Planung und Durchführung dieser Rechnungen.
Idealerweise beziehen solche Strategien umfassende quantitative Aussagen zur Ungewissheit von Parametern ein. Die bekannteste und verbreitetste Möglichkeit, dies zu tun ist die Zuweisung von Verteilungsfunktionen zum Intervall möglicher Parameterwerte. Eine Verteilungsfunktion F (x) beschreibt für jeden Wert x die Wahrscheinlichkeit, dass der „wahre“ Parameterwert kleiner oder gleich diesem Wert x ist.4
So genannte probabilistische Methoden gehen von einer solchen Zuweisung von Wahrscheinlichkeitsverteilungen zu den Eingangsgrößen aus und steuern die Durchführung von Rechnungen auf dieser Basis (z. B. indem in Bereichen höherer Wahrscheinlichkeit mehr Rechnungen stattfinden als in Bereichen niedrigerer Wahrscheinlichkeit). Dies ermöglicht im Anschluss Aussagen zu Wahrscheinlichkeitsverteilungen der Ergebnisgrößen (Frage 2): Bereiche, in die eine höhere Anzahl von Ergebnissen der Rechnungen fällt, sind plausibler (wahrscheinlicher) als solche mit einer geringeren Anzahl. Wenn die Ergebnisgrößen sicherheitsrelevante Indikatoren sind, ergeben sich Antworten auf Frage 3. Schließlich liefern probabilistische Methoden auch mächtige Werkzeuge für Sensitivitätsanalysen (Frage 4).
Box 1: Exkurs – Kritik an probabilistischen Ansätzen und Vorschläge zu Alternativen
Der „stochastische“ oder „probabilistische“ Ansatz wird in der Literatur auch kritisiert (z. B. Ferson 1996; Bárdossy et al. 2004 – eine umfangfassende Darstellung des Diskurses würde an dieser Stelle zu weit führen): Mit Wahrscheinlichkeiten ließen sich zwar Massenerscheinungen und relative Häufigkeiten (also aleatorische Ungewissheiten) beschreiben, nicht jedoch Ungewissheiten, die auf mangelnder Kenntnis beruhen (epistemische Ungewissheiten). Diesen Auffassungen liegt ein sogenannter „frequentistischer“ Wahrscheinlichkeitsbegriff zugrunde, der sich aus den mathematischen Grundlagen der Wahrscheinlichkeitstheorie jedoch nicht ableiten lässt. Diese (aufbauend auf den Kolmogorov-Axiomen) bieten ein rein „innermathematisches“ Gerüst, das zunächst nicht nach möglichen Anwendungen fragt. Es fragt sich dann, zur Beschreibung welcher real-weltlicher Problemstellungen dieses theoretische Gerüst geeignet ist. Neben der genannten frequentistischen Anwendung stehen weitere Optionen, etwa die folgende, offensichtlich auf epistemische Ungewissheiten bezogene:
„Personalistische Sichtweisen behaupten, dass Wahrscheinlichkeit ein Maß des Vertrauens einer Person in den Wahrheitsgehalt einer bestimmten Behauptung ist, etwa der Behauptung, dass es morgen regnen wird. Diese Sichtweisen postulieren dass die betreffende Person in gewisser Weise „vernünftig“ ist, aber sie verneinen die Möglichkeit nicht, dass zwei vernünftige Personen angesichts derselben Evidenz zu unterschiedliche Vertrauensgraden für dieselbe Behauptung kommen.“ (Savage 1972, S. 3)5
Man spricht in diesem Zusammenhang auch von einem Bayesschen Wahrscheinlichkeitsbegriff, weil der Bayessche Satz zu bedingten Wahrscheinlichkeiten zum „updating“ von Wahrscheinlichkeiten im Rahmen eines Lernprozesses beim Einbezug „neuer“ Informationen herangezogen wird.
Die oben genannten (und weitere) Kritiken an dieser Auffassung gehen gelegentlich mit Vorschlägen einher, andere mathematische Werkzeuge zur quantitativen Beschreibung epistemischer Ungewissheiten heranzuziehen, so nennen z. B. Bárdossy et al. (2004) u. a. die Evidenztheorie nach Dempster (1967) und Shafer (1976), die Fuzzytheorie „unscharfer Mengen“ (Zadeh 1965, 1978) sowie diverse hybride Ansätze.
Nach Meinung des Autors ist die schwerwiegendste Kritik an der Anwendung „klassischer“ Wahrscheinlichkeitstheorie und der Axiome nach Kolmogorov auf epistemische Ungewissheiten auf den Umstand bezogen, dass es Experten verschiedenster Fachgebiete oft selbst schwerfällt, ihr Wissen bzw. die resultierende oder verbleibende Ungewissheit konsistent im Rahmen dieser Theorie zu beschreiben. Die oben genannten alternativen Methoden versuchen, diese und andere reale oder vermeintliche Schwächen mittels eleganter und mathematisch interessanter Ansätze zu umgehen. Leider sind diese Ansätze i. d. R. (noch) komplexer als die Wahrscheinlichkeitstheorie und daher schwieriger und aufwendiger in die Praxis umzusetzen und dürften sich an interessierte Nicht-Spezialisten (noch) schwerer kommunizieren lassen als wahrscheinlichkeitstheoretische Ansätze.6 Prinzipiell geht es bei der Anwendung von Theorien oder Modellen auf realweltliche Sachverhalte nicht um die Frage „richtig oder falsch“, sondern um die Frage „brauchbar oder unbrauchbar“ (Triebel 1984), vielleicht auch noch um „mehr oder weniger brauchbar“. Nach Meinung des Autors haben sich wahrscheinlichkeitstheoretische Ansätze als hinsichtlich der Implementierung und der Ergebnisse „gut brauchbar“ erwiesen. Hinsichtlich der Kommunikation ist die Brauchbarkeit allerdings ausbaufähig.

6 Methodische Fragen der Anwendung deterministischer und probabilistischer Ansätze

Wenn man anerkennt, dass deterministische und probabilistische Methoden die Mittel der Wahl zur quantitativen oder semiquantitativen Bewertung all der Ungewissheiten sind, die in die Berechnung sicherheitsrelevanter Indikatoren eingehen, stellen sich wiederum mehrere Fragen:
1.
Welche Ungewissheiten sollen qualitativ, welche quantitativ behandelt werden?
 
2.
Welche sollen deterministisch, welche probabilistisch behandelt werden?
 
3.
In wie weit sollten die Ungewissheiten in einer aggregierten Betrachtung behandelt und kommuniziert werden („lumping“), in wie weit soll disaggregiert vorgegangen werden („splitting“)?7
 
Antworten auf diese Fragen sollten auf der Basis methodischer, praktischer und auf die Kommunikation gerichteter Überlegungen erfolgen. Thompson (1989) hat vor Jahrzehnten alle drei Fragen in extremer Weise beantwortet und eine Methodik (bei ihm: „Probabilistic Systems Assessment PSA“, bei Becker et al. (2024) Total System Performance Assessment TSPA) vorgeschlagen, in der alle Ungewissheiten quantitativ mittels Wahrscheinlichkeitsverteilungen beschrieben und alle probabilistisch innerhalb eines einzigen vollständig aggregierten Modells behandelt werden. Letztlich war der Ansatz einerseits dem Wunsch nach (vollständiger?) Objektivierbarkeit geschuldet und andererseits auf das damalige britische Regelwerk bezogen, das die Bewertung der Sicherheit letztlich auf einen einzigen Wert (maximal zulässiges Risiko einer schweren Krebserkrankung für eine Einzelperson von 10−6/a) aggregierte – oder eher reduzierte. Die Methodik wurde weiterentwickelt (Thompson und Sagar 1993) und versuchsweise im britischen Endlagerprogramm angewendet (Sumerling 1992). Der Ansatz wurde dann jedoch nicht weiter verfolgt.
In den letzten Jahrzehnten hat sich gezeigt, dass der geschilderte Ansatz wenig praktikabel ist. Gründe sind u. a., dass die zu berücksichtigenden Ungewissheiten deutlich vielfältiger sind als in den damaligen Studien angenommen (z. B. spielten dort Modellungewissheiten keine Rolle) und dass eine befriedigende Quantifizierung in vielen Fällen nicht gelingt. Ein PSA im Sinne von Thompson (1989) wäre heute extrem komplex, kaum noch überschau- und kommunizierbar und die Quantifizierung an vielen Stellen fragwürdig. Durchgesetzt haben sich hybride Ansätze mit quantitativen und qualitativen Zugängen unter Nutzung deterministischer und probabilistischer Methoden (bei Becker et al. (2024) „Mischansätze“). Die Ausgestaltung dieser Ansätze, die Wichtung einzelner Methoden und ihre Zuordnung zu (Teil-)Problemstellungen unterscheiden sich jedoch in den verschiedenen Safety Cases. Gründe hierfür sind unterschiedliche Regelwerke, aber auch tradierte Vorgehensweisen und persönliche oder kollektive Präferenzen der Autoren.
Die deutschen Verordnungen (EndlSiAnfV 2020; EndlSiUntV 2020) verlangen die getrennte Betrachtung der unterschiedlichen Szenarien (Entwicklungen), wobei es aber der Vorhabenträgerin überlassen bleibt, wie breit oder eng jeweils eine Entwicklung gefasst wird. Ebenfalls der Vorhabenträgerin überlassen bleibt die Methodik, mit der Ungewissheiten innerhalb der „Spannweite“ der jeweiligen Entwicklung (also etwa Parameterungewissheiten) behandelt werden, dies ist also deterministisch, probabilistisch oder auch mit anderen mathematischen Methoden möglich. Eine rein deterministische Behandlung auch der Parameterungewissheiten entspräche bei Becker et al. (2024) einem „deterministischen Ansatz“. Allgemein kann gesagt werden: Eine Entscheidung, in wie weit die Behandlung von Ungewissheiten innerhalb eines mathematischen Ansatzes zusammengefasst wird („lumping“) oder getrennt behandelt wird („splitting“) und welche Methoden zur Anwendung kommen sollen, muss neben dem jeweils geltenden Regelwerk mindestens drei Gesichtspunkte berücksichtigen:
1.
Was bietet sich aus phänomenologischer Sicht an? Zum Beispiel erscheint es sinnvoll, Entwicklungen / Szenarien aufgrund eines bestimmten auslösenden Ereignisses wie etwa eines Erdbebens gemeinsam zu behandeln, auch wenn dieses Ereignis zu unterschiedlichen Zeitpunkten erfolgen kann. Dieser Zeitpunkt kann dann als Parameter variiert werden. Dagegen müsste eine Entwicklung, für die dieses Ereignis nicht unterstellt wird, wohl getrennt davon behandelt werden, weil sie durch andere Phänomene bestimmt ist.
 
2.
Was bietet sich aus praktischer Sicht an? Die Antwort wird in vielen Fällen mit der auf die vorangegangene Frage zusammenfallen – u. a. weil unterschiedliche Phänomene auch unterschiedliche Modellansätze verlangen.
 
3.
Was lässt sich besonders einleuchtend kommunizieren? Die Antwort auf diese Frage muss sowohl die verwendeten mathematischen Methoden als auch unterschiedliche Möglichkeiten der Darstellung von Ergebnissen berücksichtigen.
 

7 Indikatoren und Ungewissheiten: Ergebnisdarstellung

Zu einer ausführlichen Diskussion der Vor- und Nachteile verschiedener Ansätze sowie zu weiterführenden Überlegungen und Optionen z. B. zur Ergebnisdarstellung und Kommunikation vgl. Becker et al. (2024), zu letzterem aber auch Seidl et al. (2024) Hier nur einige ergänzende Anmerkungen:
Die Ausführungen in Becker et al. (2024) und Seidl et al. (2024) beziehen sich auf einen in vielen Regelwerken und Safety Cases zentralen Indikator, die Abschätzung der zusätzlichen (durch das Endlager hervorgerufenen) jährlichen effektiven Dosis für potenziell exponierte Personen, die künftig in der Umgebung des Endlagers leben könnten (s. o.). Die Abb. 2 und 3 in Becker et al. (2024) zeigen zeigen Möglichkeiten der Darstellung von Ergebnissen deterministischer und probabilistischer Ansätze auf. Ergänzend zu dem dort in Abb. 3 dargestellten Medianwert ist natürlich die Darstellung weiterer statistischer Schätzgrößen möglich, vgl. Abb. 2 unten. Für unterschiedliche Entwicklungen (Szenarien) könnte dann jeweils eine probabilistische Analyse durchgeführt und jeweils eine solche Abbildung erzeugt werden.
Bei der jährlichen effektiven Individualdosis handelt es sich um einen sogenannten „Sicherheitsindikator“, also um einen Indikator, der umfassende Aussagen zur Sicherheit des Gesamtsystems ermöglicht (vgl. OECD/NEA 2012b). Der Indikator bezieht sich auf das Verhalten des gesamten Endlagersystems und aggregiert über alle möglicherweise freigesetzten Radionuklide. Noch ein weiterer Schritt der Aggregation wird gegangen, wenn das jährliche individuelle Risiko einer schweren Erkrankung für eine potenziell exponierte Person berechnet wird – in diese Größe gehen neben der genannten Dosis auch noch die Dosis-Wirkungs-Beziehung sowie die Wahrscheinlichkeit ein, dass die betrachtete Person der Dosis ausgesetzt ist. Das schwedische Regelwerk fordert die Betrachtung dieser Größe und legt für sie den Grenzwert 10-6/a fest (SSM 2008). Zu den konzeptionellen Eigenschaften dieser Größe im Kontext des Safety Case für Endlager vgl. etwa zahlreiche Beiträge in OECD/NEA (2004), zu seinen Eigenschaften hinsichtlich der Kommunikation Hocke und Röhlig (2013).
Ein gravierendes Problem des Dosis- (und mehr noch des Risiko-)Indikators ist, dass seine Berechnung (oder eher: „Abschätzung“) mit kaum eingrenzbaren Ungewissheiten einhergeht: Diese ist zum Beispiel abhängig von Annahmen zum menschlichen Verhalten, zu Ernährungsgewohnheiten und zu den Ökosystemen, die diese Gewohnheiten beeinflussen. Es ist offensichtlich, dass über den Zeitraum von einer Million Jahren diesbezügliche Prognosen praktisch unmöglich sind. Es ist daher üblich, in diesem Bereich der Ungewissheiten Konventionen festzulegen und Annahmen zu postulieren, oft werden diese behördlich vorgegeben (vgl. etwa BAnz 2022). So kann zum Beispiel unterstellt werden, dass künftig lebende Menschen sich so ernähren, wie sie es heute unter den entsprechenden klimatischen und ökologischen Bedingungen üblicherweise tun. Es ergibt sich, dass mittels des Dosis- oder des Risikoindikators keine real eintretenden gesundheitlichen Schäden für künftig lebende Menschen vorhergesagt werden, es werden lediglich die (besser abschätzbaren) Freisetzungen der einzelnen Radionuklide in standardisierter Weise aggregiert und in einen – wenn auch indirekten – Bezug zu Schadenspotenzialen gesetzt.
Auch diese berechneten Nuklid-Freisetzungen selbst sind Indikatoren – sie sind mit weniger Ungewissheiten behaftet als Dosisabschätzungen, aber andererseits sind es disaggregierte Größen mit nicht unmittelbar ersichtlichem Bezug zu einem Schadenspotenzial. Daher bereitet es größere Schwierigkeiten, für derartige Größen Grenz- oder Richtwerte festzulegen.8 Trotzdem können auch sie instruktiv hinsichtlich des Systemverhaltens sein: So wird in Abb. 3 unten dargestellt, wie die Schadstoffströme (z. B. Radionuklidströme) durch die Abfolge der Barrieren vermindert werden: Dargestellt wird ein Szenarium, in dem zwei Abfallbehälter mit unterschiedlichen Inventaren zu unterschiedlichen Zeiten versagen, es kommt zu Freisetzungen (schwarze Linie). Auf dem Weg durch die geotechnischen Barrieren (Versatz, Verschlussbauwerke) werden Schadstoffe zurückgehalten und die Freisetzung in das Wirtsgestein (grüne Linie) ist im Vergleich zu der aus den Behältern geringer und etwas verzögert. Den wichtigsten Beitrag zur Zurückhaltung und Verringerung der Freisetzung liefert aber das Wirtsgestein: Eines der beiden lokalen Maxima ist in der blauen Kurve (Freisetzung aus dem Wirtsgestein ins Deckgebirge) bei der gewählten Skalierung gar nicht mehr sichtbar, das andere ist um mehrere Größenordnungen niedriger als das der grünen Kurve (man beachte die logarithmische Skala).
Ungewissheiten hinsichtlich der in Abb. 3 dargestellten Werte könnten durch mehrere Kurven (z. B. für maximale und minimale Freisetzung) oder sogar durch Überlagerungen von Kurvenscharen analog zu Abb. 2 dargestellt werden. Allerdings besteht die Gefahr, dass bei dem Versuch, zu viele Informationen in einer einzigen Abbildung darzustellen die Klarheit der Darstellung signifikant abnimmt.
Eine solche Überlagerung ist aber nur eine von vielen Möglichkeiten, die Ergebnisse probabilistischer Rechnungen darzustellen. Eine in US-amerikanischen Safety Cases häufig verwendete Darstellungsweise nutzt die statistisch aus den Rechenergebnissen geschätzte komplementäre Verteilungsfunktion (complementary cumulative distribution function ccdf) 1-F (x) für einen Sicherheitsindikator.
Im Vergleich zu den Abb. 2 und 3 wird in dieser Darstellungsweise nicht die zeitliche Entwicklung des Indikators dargestellt, sondern zunächst für jede Simulationsrechnung das Maximum über die Zeit gebildet. Da es in der genannten Darstellung um die Frage geht, ob der Indikator amtlich festgesetzte Grenzwerte überschreiten könnte (gleichgültig, zu welchem Zeitpunkt dies geschieht), ist diese Vereinfachung sinnvoll. Die ccdf beschreibt nun für jeden Wert x die Wahrscheinlichkeit, dass der „wahre“ Sicherheitsindikator größer oder gleich diesem Wert x ist. Eine solche Darstellung aggregiert Aussagen zu potenziellen Schäden und zu deren Eintrittswahrscheinlichkeit und kommt damit Regelwerken entgegen, die die gemeinsame Betrachtung und Würdigung beider Größen fordern, z. B. durch Festlegung eines Risiko-Grenzwerts.
In Abb. 4 ist eine solche empirische ccdf für ein fiktives Beispiel dargestellt – die blaue Linie stellt die empirische ccdf auf der Basis einer Vielzahl von Rechenläufen dar.9 Der grüne Linienzug kennzeichnet eine Grenzwertsetzung des Typs, wie er aus den Anforderungen der Environment Protection Agency EPA (2022) bekannt ist (s. o.): Der (normierte) Indikator darf mit einer Wahrscheinlichkeit von weniger als 1/10 den Wert 1 und mit einer Wahrscheinlichkeit von weniger als 1/1000 den Wert 10 nicht überschreiten. Die rote Linie würde dagegen einen „klassischen“ Risiko-Grenzwert beschreiben: Sie begrenzt das Produkt aus Konsequenz (Indikatorwert) und Wahrscheinlichkeit auf den Wert 1 (wegen der doppelt logarithmischen Skala erscheint diese Begrenzung als Gerade).10
Ein weiterer interessanter Aspekt des US-amerikanischen Vorgehens ist, dass dort zwischen epistemischen und aleatorischen Ungewissheiten unterschieden wird. Beide werden probabilistisch, jedoch getrennt voneinander behandelt und dargestellt („zweidimensionale Probabilistik“). Entsprechend werden z. B. Scharen komplementärer Verteilungsfunktionen erzeugt, deren jede eine Rechenserie zu aleatorischen Ungewissheiten bei Annahme eines „feststehenden“ epistemischen Wissensstandes darstellt. Die Streubreite der gesamten Kurvenschar spiegelt dann die epistemischen Ungewissheiten wider, die durch mehrere solcher Rechenserien modelliert wurden (Abb. 5).
Eine noch größere Vielfalt einschlägiger Methoden und Darstellungsmöglichkeiten gibt es im Bereich der Sensitivitätsanalysen, hierzu sei auf die einschlägige Literatur verwiesen. Einen Überblick bieten z. B. Swiler et al. (2021).

8 Schlussfolgerungen

Es existiert eine Vielzahl mächtiger Methoden und Werkzeuge zur qualitativen und quantitativen Bewertung von Parameter- und anderer Ungewissheiten und deren Darstellung, die Beschreibungen und Abbildungen in diesem Kapitel und in anderen Beiträgen dieses Sammelbandes tragen eher exemplarischen Charakter. Die Wahl der jeweiligen Methode und des jeweiligen Werkzeugs muss zunächst so erfolgen, dass den jeweils geltenden regulatorischen Vorgaben entsprochen wird. Darüber hinaus besteht aber – auch im Rahmen der Vorgaben durch die jeweiligen Regelwerke – eine große Flexibilität für die Erstellung von Safety Cases. Vor- und Nachteile insbesondere der Wahl von Indikatoren sowie von unterschiedlichen Methoden hinsichtlich ihrer internen Logik und der jeweiligen Darstellungsweisen und deren Kommunizierbarkeit sollten weiter erforscht und erprobt werden.
Hinsichtlich der Kommunikation und Kommunizierbarkeit müssen unterschiedliche Zielgruppen unterschieden werden: Primäre Aufgabe der Autoren des Safety Case (der Vorhabenträgerin) ist die Formulierung von Vorschlägen, wie mit Ungewissheiten im weiteren Verfahren umzugehen ist und wie entsprechende Forschungs-, Entwicklungs- und Erkundungsprogramme zu gestalten sind. Darauf aufbauend ist zu entscheiden, ob der Safety Case insgesamt – einschließlich der genannten Vorschläge – als Entscheidungsgrundlage für das weitere Vorgehen angesichts der identifizierten Ungewissheiten und der Pläne zum Umgang mit ihnen tauglich ist. Es ist dann die Aufgabe von Entscheidungsträgern in Behörden und/oder Politik, ein solche Entscheidung – ggf. auch mit Änderungen im Vergleich zum Vorschlag – zu treffen oder zu verwerfen. Schließlich werden Inhalte des Safety Case im Rahmen von Partizipationsformaten Stakeholdern (z. B. aus Gebietskörperschaften) und der interessierten Öffentlichkeit kommuniziert und in diesen Formaten ggf. auch verändert.
Es ist davon auszugehen, dass auch bei Vorhabenträgerin und Entscheidungsträgern sowie deren Gutachtern nur wenige Personen beschäftigt sind, die mit den Details mathematischer Methoden zum Umgang mit Ungewissheiten, deren Aussagekraft und deren Stärken und Schwächen gut vertraut sind – dies gilt es bei der Planung des methodischen Vorgehens in der Sicherheitsanalyse und bei der Kommunikation von Ergebnissen zu beachten. Im Bereich der Vorhabenträgerin empfiehlt es sich nach Meinung des Autors, alle Leitungsebenen von Beginn an in die Planung einzubeziehen und das Personal durch Aus- und Weiterbildungsmaßnahmen an die Problematik heranzuführen. Letzteres gilt auch für Spezialistinnen und Spezialisten einzelner natur- und ingenieurwissenschaftlicher Fachgebiete, für die es wichtig ist, den Platz und die Rolle ihrer Arbeitsergebnisse im Gesamtsystem zu verstehen. Umgekehrt kann durchaus auch damit gerechnet werden, dass bei adäquater Gestaltung und hinreichender Allokation von Ressourcen aus solchen Aus- und Weiterbildungsformaten wertvolle Anregungen für Methodik und Kommunikation entstehen. Hinsichtlich der Kommunikation mit anderen Stakeholdern und der interessierten Öffentlichkeit besteht Forschungsbedarf, wobei zunehmend auch auf Erfahrungen aus anderen Wissensgebieten (Klimaforschung, Umgang mit Pandemien) zurückgegriffen werden kann.
Es bleibt auch zu beachten, dass die gravierenderen und schwieriger einzugrenzenden Ungewissheiten nicht im Bereich der Eingangsparameter für Modelle liegen, sondern eher in den konzeptionellen und phänomenologischen Grundlagen dieser Modelle, im Bereich potenzieller künftiger Entwicklungen (Szenarien) sowie im Bereich der „unknown unknowns“ und der „ignored knowns“. Nach der Erfahrung des Autors wird diesem Umstand bei der Erstellung von Safety Cases die notwendige Aufmerksamkeit gewidmet, in der Kommunikation mit Nicht-Spezialisten kommt ihm jedoch – auch durch deren Interessenlage bedingt – nicht immer das ihm gebührende Gewicht zu. In Diskussionen mit der interessierten Öffentlichkeit werden durchaus Zweifel an der Validität von Annahmen und Modellen geäußert, gleichzeitig werden Grenzwerte zu Indikatoren, die mit solchen Modellen ermittelt werden, intensiv und gelegentlich kontrovers diskutiert (Hocke, Röhlig 2013; BMUV 2022).
Einige der in diesem Kapitel genannten Fragen wurden und werden im Rahmen des Vorhabens TRANSENS (vgl. z. B. Röhlig et al. 2021; TRANSENS 2023) angerissen, eine umfassende Betrachtung steht jedoch aus. Die bislang vorliegenden Ergebnisse zeigen, dass transdisziplinäre Formate das Potenzial haben, zur Weiterentwicklung der Methodik des Safety Case und der Kommunikation von Inhalten und Ergebnissen beizutragen.
Dieser Beitrag ist im Rahmen des Vorhabens TRANSENS entstanden, einem Verbundprojekt, in dem 16 Institute bzw. Fachgebiete von neun deutschen und zwei Schweizer Universitäten und Forschungseinrichtungen zusammenarbeiten. Das Vorhaben wird vom Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) aufgrund eines Beschlusses des Deutschen Bundestages und im Niedersächsischen Vorab der Volkswagenstiftung vom Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK) von 2019 bis 2024 gefördert (FKZ 02E11849A-J).
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Fußnoten
1
Der Standortvorschlag der Nagra (2022) sieht ein solches Kombilager vor. Ob dieser Vorschlag Bestand haben wird, wird sich im Laufe des weiteren Verfahrens zeigen.
 
2
Die Begriffe „Ungewissheit“ und „Unsicherheit“ werden in Rahn et al. 2024 synonym verwendet.
 
3
Übertragung durch den Autor, im Original: “from all significant processes and events that may affect the disposal system”
 
4
Werden mehrere Eingangsparameter betrachtet, die als stochastisch nicht voneinander unabhängig angenommen werden, muss die gemeinsame Verteilungsfunktion verwendet werden, die Angabe von Korrelationen ist nur ausreichend, falls Normalverteilungen unterstellt werden. Die gemeinsame Verteilungsfunktion F (x1, x2, …, xn) beschreibt die Wahrscheinlichkeit, dass der erste Parameter kleiner oder gleich x1 und dass der zweite kleiner oder gleich x2, usw., und dass der n-te kleiner oder gleich xn ist.
 
5
Übertragung durch den Autor, im Original: “Personalistic views hold that probability measures the confidence that a particular individual has in the truth of a particular proposition, for example, the proposition that it will rain tomorrow. These views postulate that the individual concerned is in some ways “reasonable,” but they do not deny the possibility that two reasonable individuals faced with the same evidence may have different degrees of confidence in the truth of the same proposition.”
 
6
Zum Beispiel ersetzt die Evidenztheorie den Wahrscheinlichkeitsbegriff durch zwei Quantitäten: degree of belief und plausibility.
 
7
Diese z. B. vom U.S. Department of Energy (1998) gewählten Begriffe lassen sich fachlich korrekt mit „Zusammenfassen“ bzw. „Trennen“ oder auch anschaulich mit „Klumpenbildung“ bzw. „Aufspalten“ übersetzen.
 
8
Eine Ausnahme in dieser Hinsicht ist die Leitlinie YVL D.5 der finnischen Behörde STUK (2018), in der maximal erlaubte nuklidspezifische Freisetzungsraten festgelegt werden (Absatz 3.2.2).
 
9
Streng genommen haben diese sogenannten „empirischen“, also auf einer Statistik beruhenden ccdf immer die Form einer absteigenden Treppe. In der Abbildung wurde angenommen, dass die Zahl der Rechnungen (der Stichprobenumfang) so groß ist, dass die einzelnen „Treppenstufen“ nicht mehr erkennbar sind.
 
10
Der Wert 1 bezieht sich auf eine normierte Schadstofffreisetzung. Er ist nicht zu verwechseln mit dem oben genannten Wert 10-6 für das jährliche Risiko eines schweren gesundheitlichen Schadens im schwedischen Regelwerk. Die Möglichkeit der Darstellung probabilistischer Rechenergebnisse mittels einer ccdf und ihrer Gegenüberstellung mit der Darstellung des Grenzwerts als Gerade besteht jedoch auch im Fall eines solchen Risikogrenzwerts.
 
Literatur
Zurück zum Zitat Becker D-A, Noseck U, Seidl R, Wolf J (2024) Bedeutung von deterministischen und probabilistischen Methoden zur Behandlung und Kommunikation von Ungewissheiten hinsichtlich der Sicherheitsaussagen in einem Safety Case. In: Eckhardt A, Becker F, Mintzlaff V, Scheer D, Seidl R (2024) Entscheidungen für die Zukunft: Ungewissheiten bei der Entsorgung hochradioaktiver Abfälle. Springer Verlag. Becker D-A, Noseck U, Seidl R, Wolf J (2024) Bedeutung von deterministischen und probabilistischen Methoden zur Behandlung und Kommunikation von Ungewissheiten hinsichtlich der Sicherheitsaussagen in einem Safety Case. In: Eckhardt A, Becker F, Mintzlaff V, Scheer D, Seidl R (2024) Entscheidungen für die Zukunft: Ungewissheiten bei der Entsorgung hochradioaktiver Abfälle. Springer Verlag.
Zurück zum Zitat Dempster AP (1967) Upper and lower probabilities induced from a multivalued mapping, Ann. Math. Statist. 38:325–339MathSciNetCrossRef Dempster AP (1967) Upper and lower probabilities induced from a multivalued mapping, Ann. Math. Statist. 38:325–339MathSciNetCrossRef
Zurück zum Zitat Deutscher Bundestag (2020) Drucksache 19/19291. Verordnung des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit. Verordnung über Sicherheitsanforderungen und vorläufige Sicherheitsuntersuchungen für die Endlagerung hochradioaktiver Abfälle. https://dserver.bundestag.de/btd/19/192/1919291.pdf Zugriff am 10. Oktober 2022 Deutscher Bundestag (2020) Drucksache 19/19291. Verordnung des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit. Verordnung über Sicherheitsanforderungen und vorläufige Sicherheitsuntersuchungen für die Endlagerung hochradioaktiver Abfälle. https://​dserver.​bundestag.​de/​btd/​19/​192/​1919291.​pdf Zugriff am 10. Oktober 2022
Zurück zum Zitat Eckhardt A. (2024) Wie viel Ungewissheit ist akzeptabel? Beurteilung von Ungewissheiten in verschiedenen Entscheidungssituationen auf dem Entsorgungsweg In: Eckhardt A, Becker F, Mintzlaff V, Scheer D, Seidl R (2024) Entscheidungen für die Zukunft: Ungewissheiten bei der Entsorgung hochradioaktiver Abfälle. Springer Verlag. Eckhardt A. (2024) Wie viel Ungewissheit ist akzeptabel? Beurteilung von Ungewissheiten in verschiedenen Entscheidungssituationen auf dem Entsorgungsweg In: Eckhardt A, Becker F, Mintzlaff V, Scheer D, Seidl R (2024) Entscheidungen für die Zukunft: Ungewissheiten bei der Entsorgung hochradioaktiver Abfälle. Springer Verlag.
Zurück zum Zitat Ferson S (1996) What Monte Carlo methods cannot do. Human and Environmental Risk Assessment 2:990-1007CrossRef Ferson S (1996) What Monte Carlo methods cannot do. Human and Environmental Risk Assessment 2:990-1007CrossRef
Zurück zum Zitat Nagra (2002) Nationale Genossenschaft für die Lagerung radioaktiver Abfälle. Projekt Opalinuston. Entsorgungsnachweis für abgebrannte Brennelemente, verglaste hochaktive sowie langlebige mittelaktive Abfälle. Konzept für die Anlage und den Betrieb eines geologischen Tiefenlagers. Technischer Bericht 02-02 https://nagra.ch/wp-content/uploads/2022/08/d_ntb02-002.pdf Zugriff am 13. Februar 2023 Nagra (2002) Nationale Genossenschaft für die Lagerung radioaktiver Abfälle. Projekt Opalinuston. Entsorgungsnachweis für abgebrannte Brennelemente, verglaste hochaktive sowie langlebige mittelaktive Abfälle. Konzept für die Anlage und den Betrieb eines geologischen Tiefenlagers. Technischer Bericht 02-02 https://​nagra.​ch/​wp-content/​uploads/​2022/​08/​d_​ntb02-002.​pdf Zugriff am 13. Februar 2023
Zurück zum Zitat Rahn M, Leuz AK, Altorfer F (2024) Systematischer Umgang mit Ungewissheiten bei der Standortwahl für geologische Tiefenlager in der Schweiz In: Eckhardt A, Becker F, Mintzlaff V, Scheer D, Seidl R (2024) Entscheidungen für die Zukunft: Ungewissheiten bei der Entsorgung hochradioaktiver Abfälle. Springer Verlag. Rahn M, Leuz AK, Altorfer F (2024) Systematischer Umgang mit Ungewissheiten bei der Standortwahl für geologische Tiefenlager in der Schweiz In: Eckhardt A, Becker F, Mintzlaff V, Scheer D, Seidl R (2024) Entscheidungen für die Zukunft: Ungewissheiten bei der Entsorgung hochradioaktiver Abfälle. Springer Verlag.
Zurück zum Zitat Röhlig KJ (2021) Ungewissheiten erkennen, ihre Relevanz bewerten und Handlungsoptionen aufzeigen: Die Rolle von Sicherheitsuntersuchungen. In: Hassel T, Mintzlaff V, Stahlmann J, Röhlig K-J, Eckhardt A (2021): Sicherheitsrelevante Barrieren bei der Endlagerung: Ungewissheiten aus der Perspektive der Ingenieurwissenschaften. TRANSENS-Bericht-04. https://doi.org/10.21268/20211129-0 Röhlig KJ (2021) Ungewissheiten erkennen, ihre Relevanz bewerten und Handlungsoptionen aufzeigen: Die Rolle von Sicherheitsuntersuchungen. In: Hassel T, Mintzlaff V, Stahlmann J, Röhlig K-J, Eckhardt A (2021): Sicherheitsrelevante Barrieren bei der Endlagerung: Ungewissheiten aus der Perspektive der Ingenieurwissenschaften. TRANSENS-Bericht-04. https://​doi.​org/​10.​21268/​20211129-0
Zurück zum Zitat Röhlig KJ (2024) Der Safety Case als Grundlage für Entscheidungen unter Ungewissheit. In: Eckhardt A, Becker F, Mintzlaff V, Scheer D, Seidl R (2024) Entscheidungen für die Zukunft: Ungewissheiten bei der Entsorgung hochradioaktiver Abfälle. Springer Verlag. Röhlig KJ (2024) Der Safety Case als Grundlage für Entscheidungen unter Ungewissheit. In: Eckhardt A, Becker F, Mintzlaff V, Scheer D, Seidl R (2024) Entscheidungen für die Zukunft: Ungewissheiten bei der Entsorgung hochradioaktiver Abfälle. Springer Verlag.
Zurück zum Zitat Röhlig KJ, Sträter O (2022) Das „lernende“ Verfahren – Ziele, Systemgrenzen, Akteure und Erfahrungen. In: Smeddinck U, Röhlig KJ, Mbah M, Brendler V (Hrsg.) Das „lernende“ Standortauswahlverfahren für ein Endlager radioaktiver Abfälle. Interdisziplinäre Beiträge. Berliner Wissenschafts-Verlag, p 29 – 42CrossRef Röhlig KJ, Sträter O (2022) Das „lernende“ Verfahren – Ziele, Systemgrenzen, Akteure und Erfahrungen. In: Smeddinck U, Röhlig KJ, Mbah M, Brendler V (Hrsg.) Das „lernende“ Standortauswahlverfahren für ein Endlager radioaktiver Abfälle. Interdisziplinäre Beiträge. Berliner Wissenschafts-Verlag, p 29 – 42CrossRef
Zurück zum Zitat Savage LJ (1972) The Foundations of Statistics. Second Revised Edition. Dover Publications, New York Savage LJ (1972) The Foundations of Statistics. Second Revised Edition. Dover Publications, New York
Zurück zum Zitat Seidl R, Becker DA, Drögemüller C, Wolf J. (2024) Kommunikation und Wahrnehmung wissenschaftlicher Ungewissheiten. In: Eckhardt A, Becker F, Mintzlaff V, Scheer D, Seidl R (2024) Entscheidungen für die Zukunft: Ungewissheiten bei der Entsorgung hochradioaktiver Abfälle. Springer Verlag. Seidl R, Becker DA, Drögemüller C, Wolf J. (2024) Kommunikation und Wahrnehmung wissenschaftlicher Ungewissheiten. In: Eckhardt A, Becker F, Mintzlaff V, Scheer D, Seidl R (2024) Entscheidungen für die Zukunft: Ungewissheiten bei der Entsorgung hochradioaktiver Abfälle. Springer Verlag.
Zurück zum Zitat Shafer G (1976) A Mathematical Theory of Evidence. Princeton University PressCrossRef Shafer G (1976) A Mathematical Theory of Evidence. Princeton University PressCrossRef
Zurück zum Zitat SKB (2011) Long-term safety for the final repository for spent nuclear fuel at Forsmark. Main report of the SR-Site project, Volume III. Svensk Kärnbränslehantering AB TR-11_01 SKB (2011) Long-term safety for the final repository for spent nuclear fuel at Forsmark. Main report of the SR-Site project, Volume III. Svensk Kärnbränslehantering AB TR-11_01
Zurück zum Zitat Sträter O (2020) Achtsamkeit und Fehlerkultur als notwendige Sicherheitsleistung. In: Brohmann B et al. (Hrsg.): Robuste Langzeit-Governance bei der Endlagersuche. transcript, Bielefeld p 447–462. Sträter O (2020) Achtsamkeit und Fehlerkultur als notwendige Sicherheitsleistung. In: Brohmann B et al. (Hrsg.): Robuste Langzeit-Governance bei der Endlagersuche. transcript, Bielefeld p 447–462.
Zurück zum Zitat Sumerling (ed) (1992) Dry Run 3: A Trial Assessment of Underground Disposal of Radioactive Wastes Based on Probabilistic Risk Analysis, Overview. Department of Environment: Her Majesty’s Inspectorate of Pollution-Commissioned Research. DoE/HMIP/RR/92.039 Sumerling (ed) (1992) Dry Run 3: A Trial Assessment of Underground Disposal of Radioactive Wastes Based on Probabilistic Risk Analysis, Overview. Department of Environment: Her Majesty’s Inspectorate of Pollution-Commissioned Research. DoE/HMIP/RR/92.039
Zurück zum Zitat Swiler LP, Becker D-A, Brooks D, Govaerts J, Koskinen L, Kupiainen P, Plischke E, Röhlig K-J, Saveleva E, Spiessl SM, Stein E, Svitelman V (2021) Sensitivity Analysis Comparisons on Geologic Case Studies: An International Collaboration. Sandia National Laboratories. Technical Report SAND2021-11053. Albuquerque, NM. https://doi.org/10.2172/1822591 Swiler LP, Becker D-A, Brooks D, Govaerts J, Koskinen L, Kupiainen P, Plischke E, Röhlig K-J, Saveleva E, Spiessl SM, Stein E, Svitelman V (2021) Sensitivity Analysis Comparisons on Geologic Case Studies: An International Collaboration. Sandia National Laboratories. Technical Report SAND2021-11053. Albuquerque, NM. https://​doi.​org/​10.​2172/​1822591
Zurück zum Zitat Thompson BGJ (1989) The Time Dimension in Risk Analysis: Examples from Recent Work in the United Kingdom. In: Saltelli A, Stanners DA, D'Alessandro M (eds.): Risk Analysis in Nuclear Waste Management. Proceedings of the ISPRA-Course held at the Joint Research Centre, Ispra, Italy, 30 May - 3 June 1988. Kluwer, p 231–262 Thompson BGJ (1989) The Time Dimension in Risk Analysis: Examples from Recent Work in the United Kingdom. In: Saltelli A, Stanners DA, D'Alessandro M (eds.): Risk Analysis in Nuclear Waste Management. Proceedings of the ISPRA-Course held at the Joint Research Centre, Ispra, Italy, 30 May - 3 June 1988. Kluwer, p 231–262
Zurück zum Zitat Thompson BGJ, Sagar B (1993) The development and application of integrated procedures for post-closure assessment, based upon Monte-Carlo simulation: the probabilistic system assessment (PSA) approach. Reliability Engineering and System Safety 42:125–160CrossRef Thompson BGJ, Sagar B (1993) The development and application of integrated procedures for post-closure assessment, based upon Monte-Carlo simulation: the probabilistic system assessment (PSA) approach. Reliability Engineering and System Safety 42:125–160CrossRef
Zurück zum Zitat Triebel H (1984) Analysis und mathematische Physik. B.G. Teubner, Leipzig Triebel H (1984) Analysis und mathematische Physik. B.G. Teubner, Leipzig
Zurück zum Zitat U.S. Department of Energy (1998) Viability Assessment of a Repository at Yucca Mountain - Volume 3 – Total System Performance Assessment. DOE/RW-0508/V4 U.S. Department of Energy (1998) Viability Assessment of a Repository at Yucca Mountain - Volume 3 – Total System Performance Assessment. DOE/RW-0508/V4
Metadaten
Titel
Ungewissheiten bezüglich der Langzeitsicherheit von Endlagern: Qualitative und quantitative Bewertung
verfasst von
Klaus-Jürgen Röhlig
Copyright-Jahr
2024
DOI
https://doi.org/10.1007/978-3-658-42698-9_13