Skip to main content
Top
Published in:

Open Access 05-07-2022 | Originalarbeit

Hybride Analyse einer Bogenstaumauer mit einem neuralen Netzwerk und Quantilsregression

Authors: DI Manuel Pirker, BSc, Univ.-Prof. DI Dr. Gerald Zenz

Published in: Österreichische Wasser- und Abfallwirtschaft | Issue 9-10/2022

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Die Vorhersage und Interpretation von Verformungsmessungen zur Bewertung der Sicherheit von Talsperren auf der Grundlage von früheren Überwachungsdaten ist heute eine der häufigsten Aufgaben von Talsperrenverantwortlichen. Zur Lösung dieser Aufgaben werden deterministische und statistische Ansätze verwendet. Finite-Elemente-Modelle bieten die Möglichkeit, das Verhalten von Talsperren sehr detailliert zu untersuchen, wenn sowohl mechanische Parameter als auch geotechnische und geologische Informationen verfügbar sind. Im Vergleich zu statistischen Modellen mangelt es ihnen jedoch häufig an Vorhersagegenauigkeit aufgrund des zeitabhängigen Verhaltens der Rheologie und eingeschränkter Informationen über die geologischen Bedingungen. Dies ist insbesondere dann der Fall, wenn nur begrenzte Daten zur Kalibrierung von Materialmodellen und Kontaktbedingungen, z. B. zwischen den einzelnen Blöcken, zur Verfügung stehen. Die hybride Modellierung kombiniert die Vorteile beider Ansätze. Das ICOLD Technical Committee on Computational Aspects of Analysis and Design of Dams rief zu einem Workshop über das Verhalten und die prädiktive Analyse einer doppelt gekrümmten Bogenmauer auf. Für die gestellte Aufgabe wird ein Finite-Elemente-Modell erstellt und anhand verfügbarer Überwachungsdaten kalibriert. Anschließend wird ein rekurrentes neuronales Netz mit denselben Daten und den Ergebnissen der Finite-Elemente-Analyse trainiert, um dessen mangelnde Vorhersagegenauigkeit zu kompensieren. Es wird gezeigt, dass dieses Verfahren nicht nur die Qualität der Modellierung verbessert, sondern auch Unzulänglichkeiten des mechanischen Modells aufdeckt. Darüber hinaus werden aus neuronalen Netzen mit Quantilsregression Vorhersageintervalle abgeleitet, um Warnstufen zu definieren und Anomalien in den Überwachungsdaten zu erkennen.
Notes

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

1 Einleitung

Die Vorhersage und die Interpretation von Überwachungsdaten sind heute wichtige Aspekte bei die Beurteilung der Bauwerkssicherheit. Dies geschieht entweder mit datenbasierten Modellen oder mit deterministischen Methoden wie der Finite-Elemente-Analyse (FEA). Bei einer hybriden Analyse werden beide Ansätze kombiniert. Die aus diesen Analysen gewonnenen Erkenntnisse sind Grundlage für die Abschätzung des aktuellen Zustands, der Überwachung zeitabhängiger Veränderungen und der Identifizierung von Alterungsprozessen. Während die FEA am besten geeignet ist, einen Einblick in das Verhalten der untersuchten Talsperre zu geben, sind statistische Modelle in der Regel besser geeignet, dieses vorherzusagen. Anhand dieser Vorhersagen können Anomalien in den Messdaten erkannt werden. Auf der Grundlage dieser Auffälligkeiten muss der Talsperrenverantwortliche entscheiden, ob und welche Gegenmaßnahmen ergriffen werden müssen. Ein Verfahren, das für diese Zeitreihenvorhersage verwendet werden kann, ist das von Hochreiter und Schmidhuber (1997) vorgestellte Long-Short-Term-Memory (LSTM).
LSTMs sind eine Weiterentwicklung rekurrenter neuronaler Netze (RNN), die ursprünglich entwickelt wurden, um die zeitliche Beziehung innerhalb von Datenfolgen darzustellen. Sie haben jedoch einen großen Nachteil: Während des Trainingsprozesses werden die Gewichte bei jeder Iteration auf der Grundlage des Gradienten der Fehlerfunktion aktualisiert. Manchmal kann dieser Gradient so klein werden, dass sich die Gewichte nicht mehr ändern oder sogar das gesamte Netz nicht mehr trainiert werden kann. Ein Vorteil von LSTMs ist nun, dass sie nicht unter diesem Problem des verschwindenden Gradienten leiden.
Die Vorhersage von Überwachungsdaten allein ist jedoch nicht ausreichend. Es müssen geeignete Warnstufen abgeleitet werden, um abnormales Verhalten zu erkennen. Eine Möglichkeit besteht darin, sie aus Alarmstufen abzuleiten, die auf der Fehleranalyse der überwachten Struktur basieren. Ein anderer Ansatz besteht darin, sie rein aus Messdaten abzuleiten. In diesem Fall müssen die Vorhersageintervalle auf der Grundlage des zugrunde liegenden statistischen Modells bestimmt werden. Bei Zeitreihen erfordert dies in der Regel den Umgang mit inhomogenen Varianzen. Eine Methode, um dies zu erreichen, ist die Quantilsregression (QR). QR geht nicht von identischen, unabhängigen und normalverteilten Fehlerwerten aus, wie dies bei gewöhnlichen Modellen der kleinsten Quadrate der Fall ist. Die Anwendung dieser Methode in neuronalen Netzen führt zum Quantile Regression Neural Network (QRNN), wie es von Taylor (2000) vorgeschlagen wurde.
Dieser Artikel ist ein Beitrag zum Thema A des 16. internationalen Benchmark-Workshops zur numerischen Analyse von Talsperren, der von ICOLD in Ljubljana organisiert wurde. Ziel dieses Workshops ist die Interpretation und Vorhersage von Messdaten, die über einen Zeitraum von 13 Jahren an einer doppelt gekrümmten Bogenmauer gesammelt wurden. Die Vorhersage selbst soll für zwei Fälle durchgeführt werden. Erstens soll ein kurzfristiger Zeitraum von Januar bis Juni 2013 vorhergesagt werden. Zweitens wird eine Vorhersage für einen langfristigen Zeitraum von Juli 2013 bis Dezember 2018 durchgeführt. In diesem Beitrag wird eine Kombination aus deterministischen und statistischen Ansätzen vorgestellt, um eine möglichst genaue Vorhersage zu erreichen.
Zunächst wird eine thermisch-strukturelle FEA durchgeführt, um das Verhalten der Staumauer zu interpretieren. Dann wird ein LSTM-Netzwerk verwendet, um die Vorhersagefähigkeit der FEA zu verbessern. Schließlich werden QRNNs verwendet, um geeignete Warnstufen für die Überwachung abzuleiten.

2 Methodik

2.1 Finite-Elemente-Analyse

Die FEA wurde mit der Software Mechanical Workbench von Ansys (2020) durchgeführt. Der Sperrenkörper ist in 11 Blöcke unterteilt (Abb. 1), die durch Kontaktschnittstellen verbunden sind. Daher werden eine gebundene Kontaktbedingung – keine Öffnung des Kontakts, kein Gleiten – und eine Mehrpunkt-Zwangsformulierung (Multi-Point-Constraint) verwendet. Für die Aufstandsfläche werden Reibungskontakte verwendet, mit Ausnahme der Böschungsblöcke. Dort werden Kontakte über Mehrpunkt-Zwangsbedingungen formuliert.
Es wird ein Netz mit einer Gesamtzahl von 10.353 Elementen und 22.656 Knoten verwendet. Das Netz des Sperrenkörpers besteht sowohl in der thermischen als auch in der strukturellen Analyse aus quadratischen hexaedrischen Elementen. Das Fundament wurde mit quadratischen tetraedrischen Elementen diskretisiert. An den Rändern des Fundamentblocks werden Verschiebungs-Randbedingungen gesetzt. Die niedrigste Elementqualität – das Verhältnis von kleinster zu größter Elementachse – beträgt 0,31 und befindet sich innerhalb der Felsmasse. Für die thermische und strukturelle Analyse wird dasselbe Netz verwendet.
Gemäß der Beschreibung im Aufgabenblatt ist das Felsfundament in drei Teile unterteilt: Linke Böschung, Mitte und rechte Böschung (Abb. 2). Die Orientierung der anstehenden Felswand der linken Böschung wird als Orientierung der Trennflächen verwendet, da keine weiteren geologischen Informationen vorliegen. Es wird ein orthotrop, linear elastisches Materialmodell verwendet. Die Materialeigenschaften normal und parallel zu den angenommenen Trennflächen wurden dem Aufgabenblatt entnommen.
Die Ergebnisse der Analyse werden aus den Knoten am zentralen Block in einer Höhe von 236 m für CB2 und 195 m für CB3 extrahiert. Die Verformungen C4–C5 werden aus der wasserseitig, gelegenen Basisfugenöffnung extrahiert (Abb. 1 und 2).

2.1.1 Thermale Modellierung

Die thermische Belastung wird über Konvektion an allen freien Oberflächen des diskretisierten Bereichs berücksichtigt. Die notwendigen Parameter für die Konvektion zwischen den Medien und die thermischen Eigenschaften wie Leitfähigkeit und spezifische Wärmekapazität werden aus dem Aufgabenblatt übernommen. Da keine Informationen über die Ausrichtung der Staumauer vorliegen, wird die Strahlung nur auf der Luftseite der Mauer berücksichtigt. Es wird ein typischer Emissionsfaktor für Beton von 0,91 verwendet. Die Temperatur der Umgebungsluft wird über die Zeit entsprechend der Referenztemperatur variiert. Die Umgebungstemperatur und die Leitfähigkeit der wasserberührten Oberflächen werden in jedem Zeitschritt in Abhängigkeit vom aktuellen Wasserstand im Stausee aktualisiert. Zur Vereinfachung wird die Wassertemperatur aus einem funktionalen Zusammenhang mit der Lufttemperatur berechnet. Die Kalibrierung des FE-Modells erfolgte über den Wärmeausdehnungskoeffizienten und den Elastizitätsmodul des Betons (Tab. 1).
Tab. 1
Optimierte Materialparameter für Beton
Wärmeausdehnungskoeffizient
m/m°C
Elastizitätsmodul
GPa
1,15e‑5
24,0

2.2 Long-Short-Term Memory

LSTMs wurden von Hochreiter und Schmidhuber (1997) als Weiterentwicklung von RNNs eingeführt. RNNs wurden entwickelt, um die zeitliche Beziehung innerhalb von Datenfolgen darzustellen. Sie haben die Fähigkeit, Informationen von einem Zeitschritt zum nächsten weiterzugeben. Gemäß der Darstellung in Abb. 3 werden die Ausgabe des vorangegangenen Zeitschritts ht−1 und die Eingabe des aktuellen Zeitschritts Xt über eine Aktivierungsfunktion, z. B. tanh, zu der neuen Ausgabe ht kombiniert, die ebenfalls an den nächsten Zeitschritt weitergegeben wird.
Während des Trainingsprozesses werden die Gewichte bei jeder Iteration auf der Grundlage des Gradienten der Fehler- oder Verlustfunktion aktualisiert. Manchmal kann dieser Gradient so klein werden, dass sich die Gewichte nicht mehr ändern oder sogar das gesamte Netz nicht mehr trainiert werden kann.
LSTMs wurden eingeführt, um das Problem des verschwindenden Gradienten zu lösen. Jede LSTM-Einheit besteht aus einer Zelle, die Werte über einen bestimmten Zeitraum speichert, und drei Gattern, die den Informationsfluss zu und von dieser Zelle regulieren. Gemäß der Darstellung in Abb. 4 entscheidet das erste Gatter auf der Grundlage der vorherigen Ausgabe ht−1 und der aktuellen Eingabe Xt, welche Teile des vergangenen Zellzustands Ct−1 vergessen und welche gespeichert werden sollen. Dazu verwendet es die Multiplikation mit einer Sigmoidfunktion. Das nächste Gatter aktualisiert den Zellzustand durch Hinzufügen neuer Informationen. Das dritte Gatter erzeugt die aktuelle Ausgabe des aktuellen Zeitschritts ht. Diese Ausgabe und der neue Zellzustand Ct werden wiederum an den nächsten Zeitschritt weitergegeben.

2.2.1 Quantilsregression

QR modelliert die Beziehung zwischen einer Reihe von Vorhersagevariablen und bestimmten Quantilen eines Zielwerts. Im Gegensatz zur Methode der kleinsten Quadrate hängt QR nicht von Annahmen über die Verteilung des Fehlerwerts ab und neigt auch dazu, dem Einfluss von Ausreißern zu widerstehen (Koenker und Basset 1978).
Beim maschinellen Lernen wird QR häufig zur Erstellung von Vorhersageintervallen verwendet, z. B. zur Vorhersage bevorstehender Nachfrage- oder Preisänderungen an der Börse. In Anlehnung an Taylor (2000) kann das entsprechende Minimierungsproblem wie folgt formuliert werden:
$$\begin{array}[]{l} \textit{minimieren}\big(\max\big(\theta\big(y_{i}-\widehat{y_{i}}\big),\\ \big(\theta-1\big)\big(y_{i}-\widehat{y_{i}}\big)\big)\big)\end{array}$$
(1)
Dabei wird das θ-te Quantil von yi abgeleitet und \(\widehat{y_{i}}\) ist der vorhergesagte Wert. Die Einstellung \(\theta =0,5\) führt zur Vorhersage des Medians.
Um diesen Ansatz in neuronalen Netzen zu verwenden, muss die vorgestellte Funktion als benutzerdefinierte Verlustfunktion definiert werden. In dieser Arbeit wird das 97,5-%-Quantil als obere Grenze und das 2,5-%-Quantil als untere Grenze des Vorhersageintervalls verwendet.

2.2.2 Datenaufbereitung und Training

Die bereitgestellten Daten für die Pendel und den Extensometer wurden zuvor bereinigt und haben eine zeitliche Auflösung von 1,5 Wochen. FEA liefert Ergebnisse in wöchentlichen Abständen. Diese Zeitreihen werden durch lineare Interpolation auf eine tägliche Auflösung umgerechnet, um die Häufigkeit der Wasserstands‑, Niederschlags- und Lufttemperaturmessungen zu berücksichtigen. Die Vorhersage wird ebenfalls auf Tagesbasis durchgeführt.
Abb. 5 zeigt ein Flussdiagramm des Hybridmodellierungsprozesses. Nach der Neuabtastung werden die Daten auf dieselben Größenordnungen skaliert. Die Temperatur- und FEA-Daten werden standardisiert. Wasserstands- und Niederschlagsdaten werden zwischen null und eins normiert, wobei die ursprüngliche Skalierung der strukturellen Reaktionsmessungen beibehalten wird.
Nach der Skalierung der Daten wird ein Trainingssatz für den Zeitraum vom 1. Januar 2000 bis zum 10. September 2011 (90,0 % der Daten) und ein Validierungssatz für den Zeitraum vom 11. September 2011 bis zum 31. Dezember 2012 (10,0 % der Daten) erstellt. Zunächst wird das Modell nur auf den Trainingsset trainiert. Die Hyperparameter, d. h. Netztiefe, Anzahl der Neuronen pro Layer, Dropout-Rate und Aktivierungsfunktionen, werden auf der Grundlage der ermittelten Verluste im Trainings- und Evaluierungssatz angepasst. Nach dem Anpassungsprozess und der Auswahl des endgültigen Modells wird das Training mit der Validierungsmenge fortgesetzt. Schließlich wird das erhaltene Modell zur Vorhersage der Überwachungswerte und ihrer Warnstufen verwendet.
Während des Trainingsprozesses werden die Gewichte und die Vorspannung des neuronalen Netzes durch Backpropagation in Abhängigkeit von der Ableitung der Verlustfunktion aktualisiert. Für diesen Prozess gibt es mehrere Optimierungsmethoden. In dieser Arbeit wird die stochastische Gradientenabstiegsmethode „Adam“ verwendet, die auf einer adaptiven Schätzung von Momenten erster und zweiter Ordnung basiert (Kingma und Ba 2015). Außerdem wird ein Lernraten-Zeitplan mit exponentiellem Zerfall definiert.
Es werden insgesamt 9 Modelle trainiert – drei für jede Messreihe – unter Verwendung des Tensorflow/Keras-Frameworks in Python, das von Chollet et al. (2015) bereitgestellt wird.

3 Ergebnisse

3.1 Interpretation der FE-Ergebnisse

Das thermische Feld wird aus der instationären thermischen Analyse extrahiert. Abb. 6 zeigt deutlich den Unterschied in der Oberflächentemperatur zwischen den wasserberührten und den luftberührten Flächen. Außerdem weist die Luftseite der Bogenmauer aufgrund der angewandten Strahlung etwas höhere Temperaturen auf als der wasserseitigen Oberfläche.
Die Darstellung der Verformungen aus der FEA liefern weitere wichtige Informationen über das Verhalten der Staumauer. Die maximale luftseitige Verformung des mittleren Blocks wurde am 30. Juli 2006 gemessen, als die Sommertemperaturen hoch waren und der Stausee bis zum Stauziel gefüllt war (Abb. 7).
Abb. 8 zeigt das Maximum der wasserseitigen Verformung am 31. Dezember 2007, also im Winter und bei nahezu entleertem Stauraum.

3.2 Vorhersagen und Warnwerte

In Abb. 9 zeigen die FE-Ergebnisse für CB2 eine verzögerte Reaktion auf den abnehmenden hydrostatischen Druck, während die Belastungszeiten recht gut erfasst werden. Die größten Fehler werden in den ersten Quartalen der Jahre 2002 bis 2004 und im Jahr 2012 beobachtet, als der Wasserstand im Reservoir seinen niedrigsten Stand erreichte.
Die mittlere Vorhersage mithilfe des LSTM-Modells reduziert den mittleren absoluten Fehler der FE-Berechnung um 42,1 % auf 1,50 mm während des Kalibrierungszeitraums.
Die Genauigkeit der Vorhersage kann durch den zusätzlichen Einsatz des LSTM-Modells erheblich verbessert werden. Wie der Vergleich der Mess- und Vorhersagewerte in Abb. 10 zeigt, kann die Streuung auf Grund des nichtlinearen Verhaltens von CB2 durch das LSTM-Modell verringert werden. Die geschätzten Quantile im Testset (2,7–97,7 %) weichen geringfügig von den Quantilen im Trainingsset (2,5–97,5 %) ab. Die identifizierten Anomalien für CB2 sind in Abb. 11 dargestellt. Ähnliche Ergebnisse sind auch für CB3 und C4–C5 zu verzeichnen. Abb. 12 zeigt die Vorhersage von CB2 für die kurz- und langfristigen Zeitraum von 6 Monaten bzw. 5 Jahren, sowie das 2.5 %- und 97.5 %-Quantil.

4 Schlussfolgerung

Zusammenfassend lässt sich sagen, dass die Hybridanalyse die Vorteile des deterministischen Ansatzes zur Beschreibung des mechanischen Verhaltens mit der FEA und die des statistischen Ansatzes zur Berücksichtigung nicht erfasster zeitabhängiger Effekte kombiniert.
Die Finite-Elemente-Modellierung liefert wichtige Informationen über das Verhalten der Staumauer. In diesem Fall wird das Modell anhand von Messungen an nur einem Block kalibriert. Daher sind zusätzliche Messungen von entscheidender Bedeutung, um die von der FEA berechneten Verformungen zu überprüfen. Einige wesentliche Informationen, die eine fortschrittlichere numerische Modellierung ermöglichen würden, werden vom Antragsteller nicht angegeben – oder sind leider im Allgemeinen nicht verfügbar. Insbesondere Informationen zu geotechnischen Aspekten wie Fugenausrichtung und -abstände sind notwendig, um die FE-Ergebnisse weiter zu verbessern. Fehlende Daten über das thermische Feld innerhalb des Sperrenkörpers erschweren die Kalibrierung zusätzlich, da zusätzliche Annahmen getroffen werden müssen. Der größte Fehler wurde während den Entlastungsphasen festgestellt, was auf eine verzögerte Reaktion der Rheologie des umgebenden Gesteins hinweist, die vom FE-Modell nicht erfasst wird. Ähnliche Abweichungen wurden von Zenz et al. (2003) bei der Untersuchung der Bogenstaumauer Zillergründl festgestellt.
Das LSTM-Modell verbessert die Vorhersagequalität der FE-Ergebnisse. Es ist auch in der Lage, Vorhersageintervalle zu liefern, ohne Annahmen über die Parameterverteilungen in der FE-Analyse zu treffen, wie z. B. Elastizitätsmodul oder Dichte. Letzteres erfordert Daten, die vor allem bei Staumauern, die vor Jahrzehnten gebaut wurden, oft nur spärlich vorhanden sind. In der hier vorgestellten Arbeit werden das lineare Materialverhalten und die Interaktionen in der Basisfuge in der FEA abgebildet, während das LSTM-Modell Nichtlinearitäten und zeitabhängige Verhaltensänderungen wie Kriechen und rheologische Effekte berücksichtigt.
Eine Entwicklung, die die Verbreitung statistischer und teilstatistischer Modelle vorantreibt, ist die Zunahme an verfügbaren Messdaten. Nicht nur werden die installierten Messsysteme erweitert und ihre Messintervalle erhöht, sondern auch nicht ortsgebundene Systeme finden mehr Verwendung. Die Überwachung mit satellitengestützten Systemen gewinnt kontinuierlich an Zuwachs. Dies geht auch aus der Zunahme an kommerziellen und zivilen Radar- und optischen Satelliten im Orbit hervor. Laut der Union of Concerned Scientists (2022) hat sich die Anzahl der Radarsatelliten bereits im Zeitraum 2018 bis 2021 von 49 auf 89 erhöht. Die Einsatzfähigkeit dieser Systeme – bei jedem Wetter, bei Tag und Nacht – hebt sie von optischen Systemen ab. Der Umgang mit dieser Datenmenge ist jedoch bisher meist auf statistische Methoden beschränkt. Hybride Modellierung kann hier die Verbindung schaffen, um eine vollständige Entkoppelung von physikalischen Parametern zu verhindern und auch tiefgehende Interpretationen des Bauwerkzustands – aber auch dessen Umlands – zu ermöglichen.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.
Literature
go back to reference Ansys (2020): Academic research mechanical, release 2020 R1 Ansys (2020): Academic research mechanical, release 2020 R1
go back to reference Hochreiter S. & Schmidhuber J. (1997): Long short-term memory. Neural computation 9: 1735–1780CrossRef Hochreiter S. & Schmidhuber J. (1997): Long short-term memory. Neural computation 9: 1735–1780CrossRef
go back to reference Kingma D.P. & Ba J. (2015): Adam: A method for stochastic optimization. Conference for learning Representations. Kingma D.P. & Ba J. (2015): Adam: A method for stochastic optimization. Conference for learning Representations.
go back to reference Taylor J.W. (2000): A quantile regression neural network approach to estimating the conditional density of multiperiod returns. Journal of forecasting 19: 299–311CrossRef Taylor J.W. (2000): A quantile regression neural network approach to estimating the conditional density of multiperiod returns. Journal of forecasting 19: 299–311CrossRef
go back to reference Zenz G., Schöberl P., Blauhut A., Perner F. (2003): Arch dam foundation bearing behaviour. Felsbau. 21: 120-126 Zenz G., Schöberl P., Blauhut A., Perner F. (2003): Arch dam foundation bearing behaviour. Felsbau. 21: 120-126
Metadata
Title
Hybride Analyse einer Bogenstaumauer mit einem neuralen Netzwerk und Quantilsregression
Authors
DI Manuel Pirker, BSc
Univ.-Prof. DI Dr. Gerald Zenz
Publication date
05-07-2022
Publisher
Springer Vienna
Published in
Österreichische Wasser- und Abfallwirtschaft / Issue 9-10/2022
Print ISSN: 0945-358X
Electronic ISSN: 1613-7566
DOI
https://doi.org/10.1007/s00506-022-00877-2