Scientific Machine Learning
Emerging Topics
- 2026
- Buch
- Herausgegeben von
- Federico Pichi
- Gianluigi Rozza
- Maria Strazzullo
- Davide Torlo
- Buchreihe
- SIMAI Springer Series
- Verlag
- Springer Nature Switzerland
Über dieses Buch
Über dieses Buch
This volume gathers peer-reviewed papers from the workshop Scientific Machine Learning: Emerging Topics, held at SISSA in Trieste, Italy. The event gathered leading researchers in mathematics, algorithms, and machine learning. Its goal was to advance the synergy between data-driven models and scientific computing, promoting robust, interpretable, and scalable methods. The works reflect major trends in scientific machine learning (SciML), including optimization, physics-informed learning, neural graph/operators/ODE, transformers, and generative models. Contributions propose physics-based constrained neural networks, advancements in optimization and model reduction, and applications across power systems, chemical kinetics, and biomechanics. Topics span from hybrid models for image classification to generative compression and neural operators for high-dimensional systems. Blending theory and practice, the volume captures the diversity and innovation shaping modern SciML.
This volume is addressed to researchers and will provide readers with insight into the current state of the field, sparks new ideas, and encourages further research at the rich intersection of machine learning, mathematics, and scientific computing.
Inhaltsverzeichnis
-
Frontmatter
-
Domain-Decomposed Image Classification Algorithms Using Linear Discriminant Analysis and Convolutional Neural Networks
Axel Klawonn, Martin Lanser, Janine Weber-HamacherDieses Kapitel taucht in die Welt der Bildklassifizierung ein und konzentriert sich auf domänenzerlegte Algorithmen, die die lineare Diskriminierungsanalyse (LDA) und konvolutionale neuronale Netzwerke (CNNs) kombinieren. Die Studie vergleicht zwei modellhafte parallele Ausbildungsansätze für CNNs, die beide von Domain Decomposition Methods (DDMs) inspiriert und durch Transferlernen erweitert wurden. Der erste Ansatz, CNN-DNN-Transfer, integriert ein dichtes neuronales Netzwerk (DNN), um lokale Wahrscheinlichkeitsverteilungen kleinerer CNNs zu kombinieren, während der zweite, DD-CNN-Transfer, das globale CNN in kleinere Teilnetzwerke zerlegt. Im Kapitel wird auch ein neuartiger LDA-DNN-Ansatz vorgestellt, der die Idee der Domänenzersetzung auf LDA anwendet, indem er ein DNN verwendet, um die Ergebnisse der lokalen Klassifizierung zu kombinieren. Die Experimente wurden mit drei Datensätzen durchgeführt: CIFAR-10, TF-Flowers und Brust-CT-Scans, wobei zwei CNN-Architekturen verwendet wurden: VGG9 und ResNet20. Die Ergebnisse zeigen, dass beide CNN-basierten Ansätze hohe Klassifizierungsgenauigkeiten erreichen, wobei CNN-DNN-Transfer leicht besser abschneidet als DD-CNN-Transfer. Der LDA-DNN-Ansatz ist zwar weniger präzise, bietet aber eine vielversprechende Alternative mit reduzierter Rechenzeit. Das Kapitel schließt mit der Diskussion des Potenzials für weitere Forschung, einschließlich adaptiver Trainingsepochen und verbesserter LDA-DNN-Modelle.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn many modern computer application problems, the classification of image data plays an important role. Among many different supervised machine learning models, convolutional neural networks (CNNs) and linear discriminant analysis (LDA) as well as sophisticated variants thereof are popular techniques. In this work, two different domain decomposed CNN models are experimentally compared for different image classification problems. Both models are loosely inspired by domain decomposition methods and in addition, combined with a transfer learning strategy. The resulting models show improved classification accuracies compared to the corresponding, composed global CNN model without transfer learning and besides, also help to speed up the training process. Moreover, a novel decomposed LDA strategy is proposed which also relies on a localization approach and which is combined with a small neural network model. In comparison with a global LDA applied to the entire input data, the presented decomposed LDA approach shows increased classification accuracies for the considered test problems. -
Discovering Partially Known Ordinary Differential Equations: a Case Study on the Chemical Kinetics of Cellulose Degradation
Federica Bragone, Kateryna Morozovska, Tor Laneryd, Khemraj Shukla, Stefano MarkidisDieses Kapitel untersucht die Anwendung von Physik-Informed Neural Networks (PINNs), um den Abbau von Cellulose-Isolation in Leistungstransformatoren zu modellieren. Die Studie konzentriert sich auf die Entdeckung teilweise bekannter Ordinary Differential Equations (ODEs) und ihrer Parameter, insbesondere des präexponentiellen Faktors und der Aktivierungsenergie in der Arrhenius-Gleichung, sowie einer unbekannten Funktion in Emsleys ODEs-System. Die Forschung zeigt die Verwendung von PINNs, um unbekannte Parameter und Funktionen aus begrenzten Daten abzuleiten, selbst bei Anwesenheit von Rauschen. Die Ergebnisse zeigen, dass PINNs Parameter und Funktionen präzise abschätzen können, was wertvolle Erkenntnisse für die Modellierung der Zellulosealterung in Leistungstransformatoren liefert. Die Studie hebt auch das Potenzial hervor, PINNs mit symbolischer Regression zu kombinieren, um unbekannte Funktionen zu entdecken und die Genauigkeit von Degradationsmodellen zu verbessern. Die Ergebnisse deuten darauf hin, dass diese maschinellen Lerntechniken leistungsstarke Werkzeuge zur Systemidentifikation und -modellierung in industriellen Anwendungen sein können.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe degree of polymerization (DP) is one of the methods for estimating the aging of polymer-based insulation systems, such as cellulose insulation in power components. The main degradation mechanisms in polymers are hydrolysis, pyrolysis, and oxidation. These mechanisms combined cause a reduction of the DP. However, the data availability for these types of problems is usually scarce. This study analyzes insulation aging using cellulose degradation data from power transformers. The aging problem for the cellulose immersed in mineral oil inside power transformers is modeled with ordinary differential equations (ODEs). We recover the governing equations of the degradation system using Physics-Informed Neural Networks (PINNs) and symbolic regression. We apply PINNs to discover the Arrhenius equation’s unknown parameters in the Ekenstam ODE describing cellulose contamination content and the material aging process related to temperature for synthetic data and real DP values. A modification of the Ekenstam ODE is given by Emsley’s system of ODEs, where the rate constant expressed by the Arrhenius equation decreases in time with the new formulation. We use PINNs and symbolic regression to recover the functional form of one of the ODEs of the system and to identify an unknown parameter. -
Deep Unfolding for Scientific Computing on Embedded Systems
Erik Chinellato, Fabio MarcuzziDas Kapitel vertieft sich in das Deep Unfolding Paradigma, eine Methode, die die Interpretierbarkeit maschineller Lernalgorithmen verbessert, indem sie iterative Algorithmen in Schichten eines tiefen neuronalen Netzwerks transformiert. Es untersucht die Anwendung von Deep Unfolding im wissenschaftlichen Rechner, insbesondere für eingebettete Systeme, wo es effizientes Training und Echtzeit-Ausführung bietet. Der Text bietet eine detaillierte Beschreibung zweier auf die Trennung von Audioquellen mittels Nonnegative Matrix Factorization spezialisierter Schemata, von denen eines ein Originalbeitrag ist. Sie vergleicht auch den Deep Nonnegative Matrix Factor Deconvolution (Deep-NMFD) -Algorithmus mit dem PAD-NMF-Algorithmus und hebt deren Leistung und Eignung für verschiedene Szenarien hervor. Das Kapitel schließt mit der Diskussion der Flexibilität des Deep-Unfolding-Paradigmas bei der Bestimmung des optimalen Zielkonflikts zwischen Interpretierbarkeit und Anpassungsfähigkeit, was es besonders kompatibel für Embedded Computing macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn this work we present and briefly review the Deep Unfolding, a recent machine learning paradigm that found natural application in scientific computing thanks to its promising strength in generating highly interpretable deep neural networks apt to be employed even on limited-resourced embedded systems. We describe this technique within a bilevel optimization framework and provide several exemplar applications, mainly focusing on Nonnegative Matrix Factorization. -
Non-asymptotic Analysis of Projected Gradient Descent for Physics-Informed Neural Networks
Jonas Nießen, Johannes MüllerDieses Kapitel befasst sich mit der nicht-asymptotischen Analyse des prognostizierten Gradientenabstiegs für physikalisch informierte neuronale Netzwerke (PINNs) und konzentriert sich auf die Lösung hochdimensionaler partieller Differentialgleichungen (PDEs). Die Studie bietet eine umfassende Untersuchung der Optimierungs- und Verallgemeinerungseigenschaften, insbesondere für die Poisson-Gleichung. Schlüsselthemen sind die Herausforderungen traditioneller numerischer Methoden in hochdimensionalen Räumen, die Entstehung neuronaler netzwerkbasierter Methoden und die spezifischen Vorteile von PINNs. Die Analyse bietet eine allgemeine Optimierungsgarantie für PINNs, die anhand eines prognostizierten Gefälleabstiegs trainiert werden, und zeigt Konvergenzraten bis zu einer Restlaufzeit nach Funktionsannäherung. Darüber hinaus schätzt die Studie die Rademacher-Komplexität des neuronalen Netzes und seines Laplaziums ab, was dem Verallgemeinerungsfehler der am besten iterierten Gewichte, die durch den Gradienten-Descent-Algorithmus erzeugt werden, Grenzen setzt. Das Kapitel kombiniert Optimierungs- und Verallgemeinerungsergebnisse, um eine allgemeine Fehlergrenze zu schaffen, wobei klassische Ergebnisse aus der Regelmäßigkeitstheorie herangezogen werden. Das Rechenbeispiel veranschaulicht zudem die praktische Anwendung der theoretischen Ergebnisse und zeigt die Leistung seichter Netzwerke bei der Lösung der Poisson-Gleichung. Insgesamt bietet das Kapitel eine detaillierte und aufschlussreiche Untersuchung der Optimierungs- und Verallgemeinerungseigenschaften von PINNs, was es zu einer wertvollen Ressource für Fachleute auf diesem Gebiet macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn this work, we provide a non-asymptotic convergence analysis of projected gradient descent for physics-informed neural networks for the Poisson equation. Under suitable assumptions, we show that the optimization error can be bounded by \(\mathcal {O}(1/\sqrt{T} + 1/\sqrt{m} + \epsilon _{approx })\), where T is the number of algorithm time steps, m is the width of the neural network and \(\epsilon _{approx }\) is an approximation error. The proof of our optimization result relies on bounding the linearization error and using this result together with a Lyapunov drift analysis. Additionally, we quantify the generalization error by bounding the Rademacher complexities of the neural network and its Laplacian. Combining both the optimization and generalization result, we obtain an overall error estimate based on an existing error estimate from regularity theory. -
MILP Initialization for Power Transformer Dynamic Thermal Modeling with PINNs
Sirui Li, Federica Bragone, Matthieu Barreau, Kateryna MorozovskaDieses Kapitel befasst sich mit der Anwendung Physik-informierter Neuronaler Netzwerke (PINNs) für die dynamische thermische Modellierung von Leistungstransformatoren und konzentriert sich auf die Auswirkungen von Strategien vor dem Training. In der Studie werden zwei Vortrainingsmethoden vorgestellt: Grenzvortrainings und vollständige Vortrainings, die darauf abzielen, die Genauigkeit zu verbessern und die Trainingszeit von PINNs zu verkürzen. Der Text enthält eine detaillierte Methodik zur Umsetzung dieser Strategien vor dem Training, einschließlich des Einsatzes von Mixed Integer Linear Programming (MILP) zur optimalen Gewichtsinitialisierung. Die Ergebnisse zeigen, dass die Grenzvorschulung die endgültige Genauigkeit signifikant erhöht und die Trainingszeit verkürzt, während eine vollständige Vorschulung aufgrund der groben Annäherung von Derivaten weniger vielversprechende Ergebnisse zeigt. Das Kapitel vergleicht auch die Leistung verschiedener Trainingsmethoden, einschließlich Vanille-PINN und Ur-Dual-PINN, und betont die Vorteile des Grenzvortrainings. Die Studie schließt mit einer Diskussion über das Potenzial von Pre-Training-Algorithmen zur Verbesserung der Zuverlässigkeit von PINNs für Wärmetransferanwendungen, die den Weg für zukünftige Forschungen und Erweiterungen anderer Probleme ebnen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractPhysics-Informed Neural Networks (PINNs) are a powerful deep learning method capable of providing solutions and parameter estimations of physical systems. Given the complexity of their neural network structure, the convergence speed is still limited compared to numerical methods, mainly when used in applications that model realistic systems. The network initialization follows a random distribution of the initial weights, as in the case of traditional neural networks, which could lead to severe model convergence bottlenecks. To overcome this problem, we follow current studies that deal with optimal initial weights in traditional neural networks. In this paper, we use a convex optimization model to improve the initialization of the weights in PINNs and accelerate convergence. We investigate two optimization models as a first training step, defined as pre-training, one involving only the boundaries and one including physics. The optimization is focused on the first layer of the neural network part of the PINN model, while the other weights are randomly initialized. We test the methods using a practical application of the heat diffusion equation to model the temperature distribution of power transformers. The PINN model with boundary pre-training is the fastest converging method at the current stage. -
3D Point Cloud Generation for Surface Representation
Carlotta Giannelli, Sofia Imperatore, Mattia Matucci, Matteo PaianoDieses Kapitel befasst sich mit der Erzeugung von 3D-Punktwolken für die Darstellung von Oberflächen, eine wichtige Aufgabe in verschiedenen Bereichen wie Computer Vision, Robotik und computergestütztem Design. Der Schwerpunkt liegt auf fortgeschrittenen Generative Adversarial Network (GAN) -Modellen, insbesondere dem Dynamic Style-TreeGAN, das darauf abzielt, die Beschränkungen früherer Modelle wie TreeGAN und Style-TreeGAN zu überwinden. Der Text untersucht die Bedeutung des Diskriminators in GAN-Architekturen und führt einen dynamischen graphenbasierten Diskriminator ein, der die Einheitlichkeit und Genauigkeit der erzeugten Punktwolken erhöht. Außerdem wird eine Ablationsstudie vorgestellt, in der verschiedene GAN-Modelle verglichen werden, wobei die Verbesserungen bei Metriken wie MKS und JSD hervorgehoben werden. Das Kapitel schließt mit praktischen Anwendungen wie Grenzerkennung und Parametrisierung, die die reale Relevanz des vorgeschlagenen Modells demonstrieren. Die Leser erhalten Einblicke in die neuesten Fortschritte bei der Erzeugung von 3D-Punktwolken und die entscheidende Rolle des Diskriminators beim Erreichen qualitativ hochwertiger Ergebnisse.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractPoint clouds of diverse natures are needed for different geometric modeling and processing applications. In this work, we propose a new Generative Adversarial Network (GAN), called Dynamic Style-TreeGAN, for the generation of 3D point clouds with quasi-uniform distribution and limited computational costs. While existing GAN models usually do not focus on the design of the discriminator, we propose a novel discriminator based on dynamic graph convolutional networks that does not require a priori information on input data connectivity. A selection of numerical examples show that our Dynamic Style-TreeGAN compares favourably with respect to existing architectures by improving the scattered data configuration of the generated samples. The considered tests also show that the generated point clouds are well suited for geometric processing applications, such as boundary detection and surface reconstruction schemes. In the test phase of the considered examples, the computational cost of our generative model is comparable to the one of GANs without a graph-based discriminator. -
Generative Models for Parameter Space Reduction Applied to Reduced Order Modelling
Guglielmo Padula, Gianluigi RozzaDieses Kapitel befasst sich mit der Anwendung generativer Modelle zur Reduzierung des Parameterraums im Kontext der Modellierung reduzierter Ordnung für geometrisch parametrisierte partielle Differentialgleichungen (GPPDEs). Es untersucht zwei Hauptmethoden: Data-Driven Reduced Order Models (DROMs) und Parameterized Physics-Informed Neural Networks (PPINNs). Für DROMs untersucht das Kapitel die Machbarkeit der Durchsetzung einer multilinearen Beschränkung durch generative Modelle zur Reduzierung von Parametern, demonstriert durch Testfälle mit einer Poisson-Gleichung auf einem Stanford-Bunny-Modell und einem realen Szenario des Mehrphasenflusses auf dem DTCHull. Für PPINNs wird in diesem Kapitel eine generative modellbasierte Technik entwickelt, um die Anzahl der Parameter zu reduzieren, wodurch die Konvergenz beschleunigt wird und Lösungen an gröberen Maschen erlernt und auf feinere Maschen übertragen werden können, wie ein Beispiel für eine Poisson-Gleichung zeigt. Das Kapitel schließt mit Vorschlägen für zukünftige Arbeiten mit generativen Modellen, die auf neuronalen Graphennetzen basieren, oder der Erhaltung des Mechanismus zur Datenerzeugung, um eine analytisch einwandfreie Probenqualität sicherzustellen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractSolving and optimising Partial Differential Equations (PDEs) in geometrically parameterised domains often requires iterative methods, leading to high computational and time complexities. One potential solution is to learn a direct mapping from the parameters to the PDE solution. Two prominent methods for this are Data-driven Non-Intrusive Reduced Order Models (DROMs) and Parametrised Physics Informed Neural Networks (PPINNs). However, their accuracy tends to degrade as the number of geometric parameters increases. To address this, we propose adopting Generative Models to create new geometries, effectively reducing the number of parameters, and improving the performance of DROMs and PPINNs. The first section briefly reviews the general theory of Generative Models and provides some examples, whereas the second focusses on their application to geometries with fixed or variable points, emphasising their integration with DROMs and PPINNs. DROMs trained on geometries generated by these models demonstrate enhanced accuracy due to reduced parameter dimensionality. For PPINNs, we introduce a methodology that leverages Generative Models to reduce the parameter dimensions and improve convergence. This approach is tested on a Poisson equation defined over deformed Stanford Bunny domains. -
High-Fidelity Description of Platelet Deformation Using a Neural Operator
Marco Laudato, Luca Manzari, Khemraj ShuklaDieses Kapitel vertieft sich in die komplexe Dynamik der Blutplättchendeformation unter Scherfluss und konzentriert sich auf die Anwendung neuronaler Operatoren, um diese Prozesse präzise zu modellieren. Die Studie verwendet DeepONet, ein Netzwerk von Tiefbetreibern, um die deformierte Konfiguration von Thrombozyten vorherzusagen, die unterschiedlichen Scherbelastungen ausgesetzt sind. Die Forschung unterstreicht die Bedeutung der Überbrückung mikroskopischer und makroskopischer Skalen bei der Thrombosemodellierung und zeigt das Potenzial neuronaler Operatoren, dieses Ziel zu erreichen. Das Kapitel präsentiert eine umfassende Analyse des Thrombozytendynamikmodells, einschließlich der Simulationen der Teilchendynamik und der verwendeten neuronalen Netzwerkarchitektur. Es untersucht auch die Sensitivität des Modells gegenüber verschiedenen Parametern und seine Fähigkeit, über die Trainingsdaten hinaus zu extrapolieren. Die Ergebnisse zeigen, dass DeepONet die komplexen Deformationsmuster von Blutplättchen präzise erfassen kann, was den Weg für fortgeschrittene multiskalige Thrombosemodellierung ebnet. Die Studie schließt mit der Diskussion der Auswirkungen dieser Ergebnisse auf zukünftige Forschung und klinische Anwendungen und betont die Notwendigkeit weiterer Untersuchungen zu komplexeren mikroskopischen Beschreibungen der Thrombozytenaktivierung und -aggregation.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe goal of this work is to investigate the capability of a neural operator (DeepONet) to accurately capture the complex deformation of a platelet membrane under shear flow. The surrogate model approximated by the neural operator predicts the configuration of the deformed membrane based on its initial configuration and the shear stress exerted by the blood flow. The training dataset is derived from particle dynamics simulations implemented in LAMMPS. The neural operator captures the dynamics of the membrane particles with a mode error distribution of approximately 0.5%. The proposed implementation serves as a scalable approach to integrate sub-platelet dynamics into multi-scale computational models of thrombosis. -
Nonlinear Reduction Strategies for Data Compression: A Comprehensive Comparison from Diffusion to Advection Problems
Isabella Carla Gonnella, Federico Pichi, Gianluigi RozzaDieses Kapitel taucht in die Welt nichtlinearer Reduktionsstrategien zur Datenkomprimierung ein und bietet einen umfassenden Vergleich von Methoden, die von Diffusion bis zu Advektionsproblemen reichen. Der Text beginnt mit der Definition der Datenreduktion und ihrer Bedeutung für das wissenschaftliche Rechnen, wobei seine Relevanz in Bereichen wie Numerische Analyse, Mannigfaltiges Lernen, Darstellendes Lernen und Generatives Modellieren hervorgehoben wird. Es stellt eine zweistufige Pipeline zur nichtlinearen Reduktion vor, die veranschaulicht, wie unterschiedliche Methoden Datenmannigfaltigkeiten transformieren und reduzieren. Das Kapitel untersucht dann spezifische nichtlineare Reduktionsmethoden, einschließlich Techniken zur Reduzierung der Modellordnung, Mannigfaltiges Lernen und Vertretungslernen, und vergleicht ihre Stärken und Unterschiede. Ein wesentlicher Schwerpunkt liegt auf Advektionsdiffusionsproblemen, die für lineare Reduktionsmethoden bekanntermaßen eine Herausforderung darstellen. Der Text enthält eine detaillierte Analyse, wie nichtlineare Strategien diese Probleme effektiv bewältigen können, und bietet Einblicke in ihre Leistungsfähigkeit und Anwendbarkeit. Anhand numerischer Ergebnisse und Vergleiche zeigt das Kapitel die Wirksamkeit verschiedener Reduktionsstrategien auf, wobei die Vor- und Nachteile jedes Ansatzes hervorgehoben werden. Die Schlussfolgerung unterstreicht die Bedeutung einer gemeinsamen Interpretation sowohl numerischer als auch lernbasierter Reduktionsmethoden und legt nahe, dass dieser einheitliche Ansatz zukünftige Forschung und Zusammenarbeit in verschiedenen Bereichen fördern kann.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis work presents an overview of several nonlinear reduction strategies for data compression from various research fields, and a comparison of their performance when applied to problems characterized by diffusion and/or advection terms. We aim to create a common framework between the methods by unifying the notation referring to a common two-stage pipeline. At the same time, we underline their main differences and objectives by highlighting the diverse choices made for each stage. We test the considered approaches on three test cases belonging to the family of Advection-Diffusion problems, also focusing on the pure Advection and pure Diffusion benchmarks, studying their reducibility while varying the latent dimension. Finally, we interpret the numerical results under the lens of the discussed theoretical considerations, offering a comprehensive landscape for nonlinear reduction methods for general Advection-Diffusion dynamics. -
Model Reduction for Transport-Dominated Problems Via Cross-Correlation Based Snapshot Registration
Harshith Gowrachari, Giovanni Stabile, Gianluigi RozzaDieses Kapitel vertieft sich in den Bereich der Modellreduzierung für verkehrstechnisch dominierte Probleme und konzentriert sich auf die Herausforderungen, die durch den langsamen Zerfall der n-Breite von Kolmogorow entstehen. Um diesen Zerfall zu beschleunigen, führen die Autoren eine auf Kreuzkorrelationen basierende Registrierungsmethode für Schnappschüsse ein, die den Aufbau effizienter Modelle reduzierter Ordnung (ROMs) erleichtert. Der Text untersucht den zweistufigen Ansatz von ROMs, einschließlich der rechnerisch kostspieligen Offline-Phase und der effizienten Online-Phase. Er beleuchtet die Grenzen konventioneller linearer Annäherungsmethoden für verkehrstechnisch dominierte Probleme und stellt die kreuzkorrelationsbasierte Registrierung als Lösung dar. In diesem Kapitel wird auch die Umsetzung dieses Ansatzes unter Anwendung der richtigen orthogonalen Zersetzung (POD) mit Regressionsstrategie (POD-R) diskutiert. Numerische Experimente an 1D-Wanderwellen und 2D-isentropischen konvektiven Wirbeln zeigen die Wirksamkeit der vorgeschlagenen Methode und zeigen signifikante Verbesserungen der ROM-Genauigkeit und Effizienz. Die Schlussfolgerung betont die Anwendbarkeit dieses Ansatzes auf bestimmte verkehrstechnisch dominierte Probleme und schlägt zukünftige Forschungsrichtungen vor.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractTraditional linear approximation methods, such as proper orthogonal decomposition and the reduced basis method, are ill-suited for transport-dominated problems due to the slow decay of the Kolmogorov n-width, leading to inefficient and inaccurate reduced-order models. In this work, we propose a model reduction approach for transport-dominated problems by employing cross-correlation based snapshot registration to accelerate the Kolmogorov n-width decay, thereby enabling the construction of efficient and accurate reduced-order models using linear approximation methods. We propose a complete framework comprising offline-online stages for the development of reduced-order models using the cross-correlation based snapshots registration. The effectiveness of the proposed approach is demonstrated using two test cases: 1D travelling waves and the higher-order methods benchmark test case, 2D isentropic convective vortex.
- Titel
- Scientific Machine Learning
- Herausgegeben von
-
Federico Pichi
Gianluigi Rozza
Maria Strazzullo
Davide Torlo
- Copyright-Jahr
- 2026
- Verlag
- Springer Nature Switzerland
- Electronic ISBN
- 978-3-032-11527-0
- Print ISBN
- 978-3-032-11526-3
- DOI
- https://doi.org/10.1007/978-3-032-11527-0
Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.