Zum Inhalt

Scientific Machine Learning

Emerging Topics

  • 2026
  • Buch

Über dieses Buch

Dieser Band versammelt begutachtete Beiträge aus dem Workshop Scientific Machine Learning: Emerging Topics, der bei der SISSA in Triest, Italien, stattfand. An der Veranstaltung nahmen führende Forscher aus den Bereichen Mathematik, Algorithmen und maschinelles Lernen teil. Sein Ziel war es, die Synergien zwischen datengestützten Modellen und wissenschaftlicher Rechnerei zu fördern und robuste, interpretierbare und skalierbare Methoden zu fördern. Die Arbeiten spiegeln die wichtigsten Trends im Bereich des wissenschaftlichen maschinellen Lernens (SciML) wider, darunter Optimierung, physikalisch informiertes Lernen, neuronale Graphen / Operatoren / ODE, Transformatoren und generative Modelle. In den Beiträgen werden physikbasierte beschränkte neuronale Netzwerke, Fortschritte bei der Optimierung und Modellreduzierung sowie Anwendungen in den Bereichen Energiesysteme, chemische Kinetik und Biomechanik vorgeschlagen. Die Themen reichen von hybriden Modellen zur Bildklassifizierung über generative Kompression bis hin zu neuronalen Operatoren für hochdimensionale Systeme. Der Band verbindet Theorie und Praxis und fängt die Vielfalt und Innovation ein, die das moderne SciML prägen. Dieser Band richtet sich an Forscher und wird den Lesern Einblicke in den aktuellen Stand der Forschung geben, neue Ideen anregen und zu weiterer Forschung an der reichen Schnittstelle zwischen maschinellem Lernen, Mathematik und wissenschaftlichem Rechnen ermutigen.

Inhaltsverzeichnis

  1. Frontmatter

  2. Domain-Decomposed Image Classification Algorithms Using Linear Discriminant Analysis and Convolutional Neural Networks

    Axel Klawonn, Martin Lanser, Janine Weber-Hamacher
    Dieses Kapitel taucht in die Welt der Bildklassifizierung ein und konzentriert sich auf domänenzerlegte Algorithmen, die die lineare Diskriminierungsanalyse (LDA) und konvolutionale neuronale Netzwerke (CNNs) kombinieren. Die Studie vergleicht zwei modellhafte parallele Ausbildungsansätze für CNNs, die beide von Domain Decomposition Methods (DDMs) inspiriert und durch Transferlernen erweitert wurden. Der erste Ansatz, CNN-DNN-Transfer, integriert ein dichtes neuronales Netzwerk (DNN), um lokale Wahrscheinlichkeitsverteilungen kleinerer CNNs zu kombinieren, während der zweite, DD-CNN-Transfer, das globale CNN in kleinere Teilnetzwerke zerlegt. Im Kapitel wird auch ein neuartiger LDA-DNN-Ansatz vorgestellt, der die Idee der Domänenzersetzung auf LDA anwendet, indem er ein DNN verwendet, um die Ergebnisse der lokalen Klassifizierung zu kombinieren. Die Experimente wurden mit drei Datensätzen durchgeführt: CIFAR-10, TF-Flowers und Brust-CT-Scans, wobei zwei CNN-Architekturen verwendet wurden: VGG9 und ResNet20. Die Ergebnisse zeigen, dass beide CNN-basierten Ansätze hohe Klassifizierungsgenauigkeiten erreichen, wobei CNN-DNN-Transfer leicht besser abschneidet als DD-CNN-Transfer. Der LDA-DNN-Ansatz ist zwar weniger präzise, bietet aber eine vielversprechende Alternative mit reduzierter Rechenzeit. Das Kapitel schließt mit der Diskussion des Potenzials für weitere Forschung, einschließlich adaptiver Trainingsepochen und verbesserter LDA-DNN-Modelle.
  3. Discovering Partially Known Ordinary Differential Equations: a Case Study on the Chemical Kinetics of Cellulose Degradation

    Federica Bragone, Kateryna Morozovska, Tor Laneryd, Khemraj Shukla, Stefano Markidis
    Dieses Kapitel untersucht die Anwendung von Physik-Informed Neural Networks (PINNs), um den Abbau von Cellulose-Isolation in Leistungstransformatoren zu modellieren. Die Studie konzentriert sich auf die Entdeckung teilweise bekannter Ordinary Differential Equations (ODEs) und ihrer Parameter, insbesondere des präexponentiellen Faktors und der Aktivierungsenergie in der Arrhenius-Gleichung, sowie einer unbekannten Funktion in Emsleys ODEs-System. Die Forschung zeigt die Verwendung von PINNs, um unbekannte Parameter und Funktionen aus begrenzten Daten abzuleiten, selbst bei Anwesenheit von Rauschen. Die Ergebnisse zeigen, dass PINNs Parameter und Funktionen präzise abschätzen können, was wertvolle Erkenntnisse für die Modellierung der Zellulosealterung in Leistungstransformatoren liefert. Die Studie hebt auch das Potenzial hervor, PINNs mit symbolischer Regression zu kombinieren, um unbekannte Funktionen zu entdecken und die Genauigkeit von Degradationsmodellen zu verbessern. Die Ergebnisse deuten darauf hin, dass diese maschinellen Lerntechniken leistungsstarke Werkzeuge zur Systemidentifikation und -modellierung in industriellen Anwendungen sein können.
  4. Deep Unfolding for Scientific Computing on Embedded Systems

    Erik Chinellato, Fabio Marcuzzi
    Das Kapitel vertieft sich in das Deep Unfolding Paradigma, eine Methode, die die Interpretierbarkeit maschineller Lernalgorithmen verbessert, indem sie iterative Algorithmen in Schichten eines tiefen neuronalen Netzwerks transformiert. Es untersucht die Anwendung von Deep Unfolding im wissenschaftlichen Rechner, insbesondere für eingebettete Systeme, wo es effizientes Training und Echtzeit-Ausführung bietet. Der Text bietet eine detaillierte Beschreibung zweier auf die Trennung von Audioquellen mittels Nonnegative Matrix Factorization spezialisierter Schemata, von denen eines ein Originalbeitrag ist. Sie vergleicht auch den Deep Nonnegative Matrix Factor Deconvolution (Deep-NMFD) -Algorithmus mit dem PAD-NMF-Algorithmus und hebt deren Leistung und Eignung für verschiedene Szenarien hervor. Das Kapitel schließt mit der Diskussion der Flexibilität des Deep-Unfolding-Paradigmas bei der Bestimmung des optimalen Zielkonflikts zwischen Interpretierbarkeit und Anpassungsfähigkeit, was es besonders kompatibel für Embedded Computing macht.
  5. Non-asymptotic Analysis of Projected Gradient Descent for Physics-Informed Neural Networks

    Jonas Nießen, Johannes Müller
    Dieses Kapitel befasst sich mit der nicht-asymptotischen Analyse des prognostizierten Gradientenabstiegs für physikalisch informierte neuronale Netzwerke (PINNs) und konzentriert sich auf die Lösung hochdimensionaler partieller Differentialgleichungen (PDEs). Die Studie bietet eine umfassende Untersuchung der Optimierungs- und Verallgemeinerungseigenschaften, insbesondere für die Poisson-Gleichung. Schlüsselthemen sind die Herausforderungen traditioneller numerischer Methoden in hochdimensionalen Räumen, die Entstehung neuronaler netzwerkbasierter Methoden und die spezifischen Vorteile von PINNs. Die Analyse bietet eine allgemeine Optimierungsgarantie für PINNs, die anhand eines prognostizierten Gefälleabstiegs trainiert werden, und zeigt Konvergenzraten bis zu einer Restlaufzeit nach Funktionsannäherung. Darüber hinaus schätzt die Studie die Rademacher-Komplexität des neuronalen Netzes und seines Laplaziums ab, was dem Verallgemeinerungsfehler der am besten iterierten Gewichte, die durch den Gradienten-Descent-Algorithmus erzeugt werden, Grenzen setzt. Das Kapitel kombiniert Optimierungs- und Verallgemeinerungsergebnisse, um eine allgemeine Fehlergrenze zu schaffen, wobei klassische Ergebnisse aus der Regelmäßigkeitstheorie herangezogen werden. Das Rechenbeispiel veranschaulicht zudem die praktische Anwendung der theoretischen Ergebnisse und zeigt die Leistung seichter Netzwerke bei der Lösung der Poisson-Gleichung. Insgesamt bietet das Kapitel eine detaillierte und aufschlussreiche Untersuchung der Optimierungs- und Verallgemeinerungseigenschaften von PINNs, was es zu einer wertvollen Ressource für Fachleute auf diesem Gebiet macht.
  6. MILP Initialization for Power Transformer Dynamic Thermal Modeling with PINNs

    Sirui Li, Federica Bragone, Matthieu Barreau, Kateryna Morozovska
    Dieses Kapitel befasst sich mit der Anwendung Physik-informierter Neuronaler Netzwerke (PINNs) für die dynamische thermische Modellierung von Leistungstransformatoren und konzentriert sich auf die Auswirkungen von Strategien vor dem Training. In der Studie werden zwei Vortrainingsmethoden vorgestellt: Grenzvortrainings und vollständige Vortrainings, die darauf abzielen, die Genauigkeit zu verbessern und die Trainingszeit von PINNs zu verkürzen. Der Text enthält eine detaillierte Methodik zur Umsetzung dieser Strategien vor dem Training, einschließlich des Einsatzes von Mixed Integer Linear Programming (MILP) zur optimalen Gewichtsinitialisierung. Die Ergebnisse zeigen, dass die Grenzvorschulung die endgültige Genauigkeit signifikant erhöht und die Trainingszeit verkürzt, während eine vollständige Vorschulung aufgrund der groben Annäherung von Derivaten weniger vielversprechende Ergebnisse zeigt. Das Kapitel vergleicht auch die Leistung verschiedener Trainingsmethoden, einschließlich Vanille-PINN und Ur-Dual-PINN, und betont die Vorteile des Grenzvortrainings. Die Studie schließt mit einer Diskussion über das Potenzial von Pre-Training-Algorithmen zur Verbesserung der Zuverlässigkeit von PINNs für Wärmetransferanwendungen, die den Weg für zukünftige Forschungen und Erweiterungen anderer Probleme ebnen.
  7. 3D Point Cloud Generation for Surface Representation

    Carlotta Giannelli, Sofia Imperatore, Mattia Matucci, Matteo Paiano
    Dieses Kapitel befasst sich mit der Erzeugung von 3D-Punktwolken für die Darstellung von Oberflächen, eine wichtige Aufgabe in verschiedenen Bereichen wie Computer Vision, Robotik und computergestütztem Design. Der Schwerpunkt liegt auf fortgeschrittenen Generative Adversarial Network (GAN) -Modellen, insbesondere dem Dynamic Style-TreeGAN, das darauf abzielt, die Beschränkungen früherer Modelle wie TreeGAN und Style-TreeGAN zu überwinden. Der Text untersucht die Bedeutung des Diskriminators in GAN-Architekturen und führt einen dynamischen graphenbasierten Diskriminator ein, der die Einheitlichkeit und Genauigkeit der erzeugten Punktwolken erhöht. Außerdem wird eine Ablationsstudie vorgestellt, in der verschiedene GAN-Modelle verglichen werden, wobei die Verbesserungen bei Metriken wie MKS und JSD hervorgehoben werden. Das Kapitel schließt mit praktischen Anwendungen wie Grenzerkennung und Parametrisierung, die die reale Relevanz des vorgeschlagenen Modells demonstrieren. Die Leser erhalten Einblicke in die neuesten Fortschritte bei der Erzeugung von 3D-Punktwolken und die entscheidende Rolle des Diskriminators beim Erreichen qualitativ hochwertiger Ergebnisse.
  8. Generative Models for Parameter Space Reduction Applied to Reduced Order Modelling

    Guglielmo Padula, Gianluigi Rozza
    Dieses Kapitel befasst sich mit der Anwendung generativer Modelle zur Reduzierung des Parameterraums im Kontext der Modellierung reduzierter Ordnung für geometrisch parametrisierte partielle Differentialgleichungen (GPPDEs). Es untersucht zwei Hauptmethoden: Data-Driven Reduced Order Models (DROMs) und Parameterized Physics-Informed Neural Networks (PPINNs). Für DROMs untersucht das Kapitel die Machbarkeit der Durchsetzung einer multilinearen Beschränkung durch generative Modelle zur Reduzierung von Parametern, demonstriert durch Testfälle mit einer Poisson-Gleichung auf einem Stanford-Bunny-Modell und einem realen Szenario des Mehrphasenflusses auf dem DTCHull. Für PPINNs wird in diesem Kapitel eine generative modellbasierte Technik entwickelt, um die Anzahl der Parameter zu reduzieren, wodurch die Konvergenz beschleunigt wird und Lösungen an gröberen Maschen erlernt und auf feinere Maschen übertragen werden können, wie ein Beispiel für eine Poisson-Gleichung zeigt. Das Kapitel schließt mit Vorschlägen für zukünftige Arbeiten mit generativen Modellen, die auf neuronalen Graphennetzen basieren, oder der Erhaltung des Mechanismus zur Datenerzeugung, um eine analytisch einwandfreie Probenqualität sicherzustellen.
  9. High-Fidelity Description of Platelet Deformation Using a Neural Operator

    Marco Laudato, Luca Manzari, Khemraj Shukla
    Dieses Kapitel vertieft sich in die komplexe Dynamik der Blutplättchendeformation unter Scherfluss und konzentriert sich auf die Anwendung neuronaler Operatoren, um diese Prozesse präzise zu modellieren. Die Studie verwendet DeepONet, ein Netzwerk von Tiefbetreibern, um die deformierte Konfiguration von Thrombozyten vorherzusagen, die unterschiedlichen Scherbelastungen ausgesetzt sind. Die Forschung unterstreicht die Bedeutung der Überbrückung mikroskopischer und makroskopischer Skalen bei der Thrombosemodellierung und zeigt das Potenzial neuronaler Operatoren, dieses Ziel zu erreichen. Das Kapitel präsentiert eine umfassende Analyse des Thrombozytendynamikmodells, einschließlich der Simulationen der Teilchendynamik und der verwendeten neuronalen Netzwerkarchitektur. Es untersucht auch die Sensitivität des Modells gegenüber verschiedenen Parametern und seine Fähigkeit, über die Trainingsdaten hinaus zu extrapolieren. Die Ergebnisse zeigen, dass DeepONet die komplexen Deformationsmuster von Blutplättchen präzise erfassen kann, was den Weg für fortgeschrittene multiskalige Thrombosemodellierung ebnet. Die Studie schließt mit der Diskussion der Auswirkungen dieser Ergebnisse auf zukünftige Forschung und klinische Anwendungen und betont die Notwendigkeit weiterer Untersuchungen zu komplexeren mikroskopischen Beschreibungen der Thrombozytenaktivierung und -aggregation.
  10. Nonlinear Reduction Strategies for Data Compression: A Comprehensive Comparison from Diffusion to Advection Problems

    Isabella Carla Gonnella, Federico Pichi, Gianluigi Rozza
    Dieses Kapitel taucht in die Welt nichtlinearer Reduktionsstrategien zur Datenkomprimierung ein und bietet einen umfassenden Vergleich von Methoden, die von Diffusion bis zu Advektionsproblemen reichen. Der Text beginnt mit der Definition der Datenreduktion und ihrer Bedeutung für das wissenschaftliche Rechnen, wobei seine Relevanz in Bereichen wie Numerische Analyse, Mannigfaltiges Lernen, Darstellendes Lernen und Generatives Modellieren hervorgehoben wird. Es stellt eine zweistufige Pipeline zur nichtlinearen Reduktion vor, die veranschaulicht, wie unterschiedliche Methoden Datenmannigfaltigkeiten transformieren und reduzieren. Das Kapitel untersucht dann spezifische nichtlineare Reduktionsmethoden, einschließlich Techniken zur Reduzierung der Modellordnung, Mannigfaltiges Lernen und Vertretungslernen, und vergleicht ihre Stärken und Unterschiede. Ein wesentlicher Schwerpunkt liegt auf Advektionsdiffusionsproblemen, die für lineare Reduktionsmethoden bekanntermaßen eine Herausforderung darstellen. Der Text enthält eine detaillierte Analyse, wie nichtlineare Strategien diese Probleme effektiv bewältigen können, und bietet Einblicke in ihre Leistungsfähigkeit und Anwendbarkeit. Anhand numerischer Ergebnisse und Vergleiche zeigt das Kapitel die Wirksamkeit verschiedener Reduktionsstrategien auf, wobei die Vor- und Nachteile jedes Ansatzes hervorgehoben werden. Die Schlussfolgerung unterstreicht die Bedeutung einer gemeinsamen Interpretation sowohl numerischer als auch lernbasierter Reduktionsmethoden und legt nahe, dass dieser einheitliche Ansatz zukünftige Forschung und Zusammenarbeit in verschiedenen Bereichen fördern kann.
  11. Model Reduction for Transport-Dominated Problems Via Cross-Correlation Based Snapshot Registration

    Harshith Gowrachari, Giovanni Stabile, Gianluigi Rozza
    Dieses Kapitel vertieft sich in den Bereich der Modellreduzierung für verkehrstechnisch dominierte Probleme und konzentriert sich auf die Herausforderungen, die durch den langsamen Zerfall der n-Breite von Kolmogorow entstehen. Um diesen Zerfall zu beschleunigen, führen die Autoren eine auf Kreuzkorrelationen basierende Registrierungsmethode für Schnappschüsse ein, die den Aufbau effizienter Modelle reduzierter Ordnung (ROMs) erleichtert. Der Text untersucht den zweistufigen Ansatz von ROMs, einschließlich der rechnerisch kostspieligen Offline-Phase und der effizienten Online-Phase. Er beleuchtet die Grenzen konventioneller linearer Annäherungsmethoden für verkehrstechnisch dominierte Probleme und stellt die kreuzkorrelationsbasierte Registrierung als Lösung dar. In diesem Kapitel wird auch die Umsetzung dieses Ansatzes unter Anwendung der richtigen orthogonalen Zersetzung (POD) mit Regressionsstrategie (POD-R) diskutiert. Numerische Experimente an 1D-Wanderwellen und 2D-isentropischen konvektiven Wirbeln zeigen die Wirksamkeit der vorgeschlagenen Methode und zeigen signifikante Verbesserungen der ROM-Genauigkeit und Effizienz. Die Schlussfolgerung betont die Anwendbarkeit dieses Ansatzes auf bestimmte verkehrstechnisch dominierte Probleme und schlägt zukünftige Forschungsrichtungen vor.
Titel
Scientific Machine Learning
Herausgegeben von
Federico Pichi
Gianluigi Rozza
Maria Strazzullo
Davide Torlo
Copyright-Jahr
2026
Electronic ISBN
978-3-032-11527-0
Print ISBN
978-3-032-11526-3
DOI
https://doi.org/10.1007/978-3-032-11527-0

Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.

    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Kumavision/© Kumavision, Noriis Network AG/© Noriis Network AG, tts GmbH/© tts GmbH, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data, Bild 1 Verspätete Verkaufsaufträge (Sage-Advertorial 3/2026)/© Sage, IT-Director und IT-Mittelstand: Ihre Webinar-Matineen in 2025 und 2026/© amgun | Getty Images