Zum Inhalt

Tools and Algorithms for the Construction and Analysis of Systems

31st International Conference, TACAS 2025, Held as Part of the International Joint Conferences on Theory and Practice of Software, ETAPS 2025, Hamilton, ON, Canada, May 3–8, 2025, Proceedings, Part II

  • Open Access
  • 2025
  • Open Access
  • Buch

Über dieses Buch

Die Open-Access-Bücher LNCS 15696, 15697 und 15698 bilden den Rahmen der 31. Internationalen Konferenz über Werkzeuge und Algorithmen für die Konstruktion und Analyse von Systemen, TACAS 2025, die im Rahmen der Internationalen Gemeinsamen Konferenzen über Theorie und Praxis von Software, ETAPS 2025, vom 3. bis 8. Mai 2025 in Hamilton, Kanada, abgehalten wurde. Die 46 präsentierten Arbeiten wurden sorgfältig geprüft und aus 148 Einreichungen ausgewählt. Zu den Verfahren gehören auch 14 Arbeiten aus dem Wettbewerb zur Softwareverifizierung, der im Rahmen von TACAS abgehalten wurde. Die Vorträge waren wie folgt in thematische Abschnitte gegliedert: Teil I: Programmanalyse, ATP und Umschreiben; Modellüberprüfung; LTL; Verifikation; Teil II: SAT- und SMT-Lösung; Beweise und Zertifikate; Synthese; Äquivalenzprüfung; Spiele; Teil III: Verifikation; Quanten- und GPU; 14. Wettbewerb zur Software-Verifikation, SV-COMP 2025.

Inhaltsverzeichnis

  1. SAT and SMT Solving

    1. Frontmatter

    2. Incremental SAT-Based Enumeration of Solutions to the Yang-Baxter Equation

      • Open Access
      Daimy Van Caudenberg, Bart Bogaerts, Leandro Vendramin
      Die Yang-Baxter-Gleichung (YBE) ist eine grundlegende Gleichung in der mathematischen Physik mit weitreichenden Anwendungen in verschiedenen Bereichen der reinen Mathematik, einschließlich der Repräsentationstheorie und der niederdimensionalen Topologie. Dieses Kapitel untersucht die diskrete Version des YBE und konzentriert sich auf die Konstruktion von Set-Theory-Lösungen, die aufgrund ihrer Bedeutung und Komplexität hervorgehoben wurden. Das Kapitel stellt das SAT Modulo Symmetries (SMS) Framework vor, eine Technik zur isomorphen-freien Aufzählung, und wendet es auf das YBE an. Die Autoren diskutieren, wie man die YBE in konjunktiver Normalform (CNF) kodiert und eine domänenspezifische Minimalitätsprüfung entwickelt, um nicht-isomorphe Lösungen effizient aufzuzählen. Zwei Implementierungen dieser Minimalitätsprüfung werden vorgestellt: ein Backtracking-Ansatz und ein schrittweiser SAT-basierter Ansatz. Insbesondere der inkrementelle Ansatz zeigt deutliche Beschleunigungen und ermöglicht die Aufzählung von Lösungen für Größen, die vorher unerreichbar waren. Das Kapitel enthält auch eine detaillierte experimentelle Bewertung, in der die neuen Ansätze mit bestehenden Methoden verglichen und die erzielten Leistungsverbesserungen hervorgehoben werden. Darüber hinaus wird in diesem Kapitel das Potenzial diskutiert, diese Methoden auf andere kombinatorische Strukturen auszuweiten und die Herausforderungen der Bereitstellung von Nachweisprotokollen für eine isomorphismusfreie Erzeugung zu diskutieren.
      PDF-Version jetzt herunterladen
    3. Z3-Noodler 1.3: Shepherding Decision Procedures for Strings with Model Generation

      • Open Access
      David Chocholatý, Vojtěch Havlena, Lukáš Holík, Jan Hranička, Ondřej Lengál, Juraj Síč
      In diesem Kapitel wird der Z3-Noodler 1.3 vorgestellt, ein hochmoderner String-Solver, der sich in der Stringabteilung von SMT-COMP '24 als überlegen erwiesen hat. Das Rahmenwerk ist so konzipiert, dass es mit einer breiten Palette von String-Beschränkungen umgehen kann, indem es mehrere Entscheidungsverfahren integriert, die jeweils auf bestimmte Arten von Beschränkungen zugeschnitten sind. Dieser Ansatz adressiert die Komplexität der String-Lösung, bei der ein einzelnes Verfahren häufig nicht ausreicht, um vielfältige Probleme der realen Welt zu lösen. Das Kapitel beschreibt die Implementierung von zwei neuen Entscheidungsverfahren: eine zur Handhabung reiner regulärer Beschränkungen unter Verwendung endlicher Automaten und eine andere zur Umwandlung von Gleichungsblockstringbeschränkungen in linear-ganzzahlige arithmetische (LIA) Beschränkungen. Darüber hinaus werden die Optimierung der Nielsen-Transformation und die Erweiterung der Möglichkeiten zur Modellerzeugung diskutiert. Die Bewertung von Z3-Noodler 1.3 anhand von Standard-SMT-LIB-Benchmarks zeigt signifikante Verbesserungen bei der Anzahl der gelösten Instanzen und der Lösungszeit im Vergleich zu anderen hochmodernen Tools. Das Kapitel bietet auch Einblicke in die Auswirkungen unterschiedlicher Entscheidungsverfahren und Modellgenerierung auf die Gesamtleistung, was es zu einer entscheidenden Lektüre für diejenigen macht, die sich für die neuesten Entwicklungen im Bereich der Stringlösungstechnologien interessieren.
      PDF-Version jetzt herunterladen
    4. D-Painless: A Framework for Distributed Portfolio SAT Solving

      • Open Access
      Mazigh Saoudi, Souheib Baarir, Julien Sopena, Thibault Lejemble
      Das Kapitel geht der entscheidenden Rolle von SAT-Formeln bei der Verschlüsselung komplexer Probleme in verschiedenen Bereichen wie Schaltkreisverifikation, Kryptographie, automatisierte Planung und Softwareverifikation nach. Es betont die Herausforderungen durch harte SAT-Instanzen und die Notwendigkeit paralleler und verteilter Rechnerumgebungen, um die Lösungszeiten zu reduzieren. Die Erweiterung des Rahmenwerks zur Aufnahme von SAT-Lösern für verteilte Klauseln ist ein wesentlicher Schwerpunkt, der die Einbeziehung diverser Klauselteilungsstrategien und Knotentopologien ermöglicht. Diese Erweiterung führt zu einem vielseitigen Framework, das die Entwicklung verteilter SAT-Solver vereinfacht und es zu einem unschätzbaren Werkzeug für Forscher macht. Das Kapitel bietet einen detaillierten Überblick über verwandte Arbeiten, einschließlich bahnbrechender Bemühungen zur Lösung verteilter SAT-Probleme und der Entwicklung von Strategien zum Austausch von Klauseln. Es präsentiert außerdem eine umfassende Bewertung der neuen Architektur, bewertet ihre Leistung anhand implementierter Sharing-Strategien und vergleicht sie mit modernen Lösungsansätzen. Das Kapitel schließt mit einer Diskussion über mögliche zukünftige Arbeiten, einschließlich der Entwicklung fehlertoleranter Algorithmen und der Optimierung bestehender Komponenten zur Steigerung der Gesamteffizienz. Die Erforschung der dezentralen Bereitstellung, der gemeinsamen Nutzung von Klauseln und der Architektur des Rahmenwerks bietet einen tiefen Einblick in die technischen Komplexitäten und innovativen Lösungen im Bereich der dezentralen SAT-Lösungen.
      PDF-Version jetzt herunterladen
  2. Proofs and Certificates

    1. Frontmatter

    2. Unsatisfiability Proofs for Horn Solving

      • Open Access
      Rodrigo Otoni, Martin Blicha, Matias Barandiaran Rivera, Patrick Eugster, Jan Kofron̆, Natasha Sharygina
      Das Kapitel geht der kritischen Notwendigkeit von Korrektheitszeugen in beschränkten Horn-Klauseln nach, die für die Überprüfung der Korrektheit von Software und Systemen unverzichtbar sind. Es führt einen neuartigen Ansatz zur Erstellung und Instanziierung von Unbefriedigungsnachweisen ein, der eine unabhängige Validierung der Ergebnisse von CHC-Lösern ermöglicht. Der Ansatz ist generisch konzipiert und berücksichtigt verschiedene Lösungsalgorithmen, Vorverarbeitungsschritte und Proof-Formate, wodurch seine Anwendbarkeit auf verschiedene Verifikationswerkzeuge verbessert wird. Das Kapitel bietet einen umfassenden Hintergrund zu CHC-Systemen und Unbefriedigungsnachweisen und beschreibt die Erstellung grobkörniger Kornnachweise unter Verwendung des Spacer-Algorithmus und deren Rückübersetzung zur Berücksichtigung der Vorverarbeitung. Es beschreibt auch die Instanziierung dieser Grobproofs in das Alethe-Proof-Format, das von Tools wie Carcara unabhängig überprüft werden kann. Im Abschnitt Evaluierung wird eine groß angelegte Bewertung anhand von 600 Benchmarks aus dem Wettbewerb CHC-COMP 2024 präsentiert, die zeigt, dass die Erstellung und Überprüfung von Nachweisen einen minimalen Aufwand für die Lösung der Probleme mit sich bringt. Die Ergebnisse deuten darauf hin, dass der Ansatz praktisch und effizient ist, was ihn zu einem wertvollen Beitrag im Bereich der formalen Verifikation und Softwarevalidierung macht.
      PDF-Version jetzt herunterladen
    3. Revisiting DRUP-Based Interpolants with CaDiCaL 2.0

      • Open Access
      Basel Khouri, Yakir Vizel
      Dieses Kapitel befasst sich mit der Generierung von Interpolanten aus DRUP-Proofs und konzentriert sich auf ihre Anwendung bei der Überprüfung von SAT-Modellen. Es stellt Drup2Itp vor, ein Framework, das auf dem CaDiCaL 2.0 SAT-Solver aufbaut und die Tracer-API nutzt, um inkrementelle DRUP-Protokollierung im Speicher zu ermöglichen, ohne die Einbauten des Solvers zu verändern. Dieses Design ermöglicht flexible und effiziente interpolante Berechnungen, die speziell für Anwendungen zur Modellprüfung zugeschnitten sind. Das Kapitel behandelt die Implementierungsdetails von Drup2Itp, einschließlich seiner entkoppelten Architektur, spezialisierter Verfahren zur Unit Propagation und Konfliktanalyse und der Einführung eines Proof-Minimization-Algorithmus. Der Evaluierungsteil präsentiert einen gründlichen Vergleich von Drup2Itp mit bestehenden Tools unter Verwendung von Benchmarks der Hardware Model Checking Competitions (HWMCC '19 und HWMCC' 20). Die Ergebnisse zeigen, dass Drup2Itp, wenn es mit CaDiCaL integriert wird, die Leistung des Avy-Modellprüfers signifikant verbessert, mehr Fälle löst und eine bessere Laufzeitperformance im Vergleich zur Vanilla-Version erreicht. Das Kapitel untersucht auch die Auswirkungen der Beweisminimierung auf die interpolante Generierung und bietet Einblicke in das Potenzial weiterer Verbesserungen bei Interpolationstechniken und deren Anwendung bei der Modellüberprüfung.
      PDF-Version jetzt herunterladen
    4. Certifying Pareto-Optimality in Multi Objective Maximum Satisfiability

      • Open Access
      Christoph Jabs, Jeremias Berg, Bart Bogaerts, Matti Järvisalo
      Das Kapitel vertieft sich in die entscheidende Rolle automatisierten Denkens bei der Entwicklung korrekter und vertrauenswürdiger Systeme, wobei der Schwerpunkt auf Boolescher Zufriedenheit (SAT) und maximaler Zufriedenheit (MaxSAT) liegt. Es unterstreicht die Bedeutung von Nachweisprotokollierungs- und Überprüfungstechniken, um die Zuverlässigkeit der Lösergebnisse zu gewährleisten, insbesondere bei Optimierungsproblemen in der realen Welt. Der Text führt das VeriPB-Format ein, das Proof-Logging für Probleme bei der Optimierung von Einzelobjekten unterstützt und seine Anwendung auf Multiobjektiv-Lösungen von MaxSAT (MO-MaxSAT) ausweitet. Durch Nutzung von Vorbestellungen in VeriPB wird gezeigt, wie man Pareto-Optimalität in MO-MaxSAT-Algorithmen zertifiziert, um sicherzustellen, dass die berechneten Lösungen repräsentativ für den nicht dominierten Satz sind. Das Kapitel enthält detaillierte Proof-Logging-Prozeduren für verschiedene MO-MaxSAT-Algorithmen, darunter -minimal, BiOptSat und LowerBound, sowie die Kernvorverarbeitungstechnologie zur Steigerung der Leistungsfähigkeit. Experimentelle Ergebnisse zeigen, dass Proof Logging für MO-MaxSAT skalierbar gemacht werden kann, mit tolerierbaren Laufzeitkosten. Das Kapitel schließt mit der Diskussion der Implikationen dieser Erkenntnisse und potenzieller zukünftiger Arbeiten zur Ausweitung des Proof Logging auf alle Pareto-optimalen Lösungen.
      PDF-Version jetzt herunterladen
    5. Fixed Point Certificates for Reachability and Expected Rewards in MDPs

      • Open Access
      Krishnendu Chatterjee, Tim Quatmann, Maximilian Schäffeler, Maximilian Weininger, Tobias Winkler, Daniel Zilken
      Dieses Kapitel untersucht die kritische Notwendigkeit der Zertifizierung von Algorithmen in Markov-Entscheidungsprozessen (MDPs) und betont die Berechnung von Erreichbarkeitswahrscheinlichkeiten und erwarteten Belohnungen. Es geht auf die Schwachstellen in bestehenden MDP-Modellprüfwerkzeugen ein und hebt Fehlerquellen wie Implementierungsfehler, unsolide Algorithmen, numerische Ungenauigkeiten und Abhängigkeiten von Drittanbietern hervor. Die Autoren schlagen einen neuen Standard für zertifizierte MDP-Modellüberprüfung vor, der Festpunktzertifikate einführt, die knappe, leicht überprüfbare Nachweise der Ergebnisse liefern. Diese Zertifikate sind solide und vollständig für willkürliche endliche MDPs und gewährleisten strenge Korrektheit und Präzision. Das Kapitel formalisiert die Theorie in Isabelle / HOL und erzeugt eine formal verifizierte Zertifikatsprüfer-Implementierung. Außerdem werden praktische Implementierungen des Storm-Modellcheckers vorgestellt, die die Anwendbarkeit und Erweiterbarkeit des vorgeschlagenen Ansatzes anhand umfangreicher Experimente mit dem Quantitativen Verifikationsbenchmark Set demonstrieren. Das Kapitel schließt mit einer Diskussion über Skalierbarkeit und Effizienz der zertifizierten Pipeline, die den Weg für zukünftige Fortschritte bei der probabilistischen Modellüberprüfung ebnet.
      PDF-Version jetzt herunterladen
  3. Synthesis

    1. Frontmatter

    2. Accelerating Protocol Synthesis and Detecting Unrealizability with Interpretation Reduction

      • Open Access
      Derek Egolf, Stavros Tripakis
      Das Kapitel untersucht die automatisierte Synthese verteilter Protokolle, ein schwieriges Problem im Bereich der Computersysteme. Es stellt eine neue Methode vor, die das Skizzierungsparadigma nutzt, um das Syntheseproblem in ein Suchproblem zu verwandeln, wobei der Benutzer eine Protokollskizze bereitstellt, die Löcher enthält, die mit Ausdrücken aus zugehörigen Grammatiken gefüllt werden können. Die Methode folgt dem Paradigma der kontrabeispielgestützten induktiven Synthese (CEGIS), bei der ein Lernender mit einem Prüfer zusammenarbeitet, um Kandidatenprotokolle zu erstellen und zu überprüfen. Eine Schlüsselinnovation ist die Einführung der Interpretationsreduzierung, einer Technik zur Verringerung des Suchraums, die die Aufzählung redundanter Kandidaten vermeidet, indem sie eine Äquivalenzbeziehung wählt und den Suchraum in Klassen äquivalenter Ausdrücke unterteilt. Diese Technik erweist sich als effizienter als bestehende Ansätze, wobei Experimente signifikante Beschleunigungen und die Fähigkeit zeigen, nicht realisierbare Synthesefälle effektiver zu erkennen. Das Kapitel stellt auch ein Synthesewerkzeug namens Polysemist vor, das die vorgeschlagene Methode implementiert und modernste Werkzeuge sowohl in realisierbaren als auch in nicht realisierbaren Syntheseproblemen übertrifft. Die Fähigkeit des Tools, ein komplettes TLA + -Protokoll von Grund auf in bemerkenswert kurzer Zeit zu synthetisieren, unterstreicht sein Potenzial für praktische Anwendungen im Design und in der Verifikation verteilter Systeme.
      PDF-Version jetzt herunterladen
    3. Synthesis of Universal Safety Controllers

      • Open Access
      Bernd Finkbeiner, Niklas Metzger, Satya Prakash Nayak, Anne-Kathrin Schmuck
      Dieses Kapitel untersucht die Synthese universeller Sicherheitscontroller und überbrückt die Lücke zwischen reaktiver Synthese und aufsichtsrechtlicher Kontrolle. Es befasst sich mit den Beschränkungen traditioneller Methoden, die aufgrund der Notwendigkeit, alle möglichen Pflanzenverhaltungen in das Modell einzubeziehen, mit Skalierbarkeit zu kämpfen haben. Das Kapitel stellt einen bahnbrechenden Ansatz vor, der die Synthese eines universellen Controllers von seiner Anpassung an spezifische Anlagenmodelle entkoppelt, indem er Prophezeiungen verwendet, um Reglerleistungen auf Grundlage zukünftigen Anlagenverhaltens zu konditionieren. Diese Methode verbessert die Skalierbarkeit und Anpassungsfähigkeit und ermöglicht eine effiziente Synthese, selbst wenn das Pflanzenmodell nicht vollständig bekannt ist oder sich im Laufe der Zeit ändert. Das Kapitel bietet einen umfassenden Überblick über die theoretischen Grundlagen, einschließlich der formalen Einführung universeller Steuerungen und Prophezeiungen, und stellt einen Algorithmus zur Synthese universeller Steuerungen aus Sicherheitsspezifikationen vor. Es enthält auch experimentelle Ergebnisse, die die verbesserte Skalierbarkeit des Ansatzes im Vergleich zu Standardmethoden belegen. Das Kapitel schließt mit einer Diskussion der Vorteile universeller Steuerungen, einschließlich ihrer Anpassungsfähigkeit an neue Anlagen und dynamische Veränderungen, sowie ihrer Erklärbarkeit, die spezifische Anlageneigenschaften identifiziert, die bestimmte Steuerungen sicherer machen.
      PDF-Version jetzt herunterladen
    4. Synthesis with Guided Environments

      • Open Access
      Orna Kupferman, Ofer Leshkowitz
      Das Kapitel stellt das Konzept der Synthese mit geführten Umgebungen (SGE) vor, einem neuartigen Ansatz zur Systemsynthese, bei dem das System die Handlungen der Umwelt lenken kann. Diese Methode ist besonders in Szenarien mit teilweiser Sichtbarkeit vorteilhaft, in denen das System nicht alle Eingangssignale beobachten kann. Das Kapitel untersucht die technischen Herausforderungen und Vorteile von SGE, einschließlich der Zersetzung der Zufriedenheitsaufgabe zwischen dem System und der Umwelt. Es geht um den Speicher, der von der Umgebung genutzt wird und wie er optimiert werden kann, sowie um die automatisierungsbasierte Lösung für SGE. Das Kapitel behandelt auch den Bereich der Programme, die von den Wandlern mit geführten Umgebungen (TGEs) verwendet werden und wie diese effizient dargestellt werden können. Darüber hinaus vergleicht er den SGE-Ansatz mit traditionellen Synthesemethoden und verteilten Systemen und hebt die einzigartigen Vorteile und technischen Herausforderungen von SGE hervor. Das Kapitel endet mit Anweisungen für zukünftige Forschung, einschließlich dynamischer Ausblendung und Führung von Signalen und begrenzter SGE. Die detaillierte Analyse und die technische Tiefe machen dieses Kapitel zu einer wertvollen Ressource für Spezialisten, die fortgeschrittene Synthesetechniken verstehen und umsetzen wollen.
      PDF-Version jetzt herunterladen
    5. Value Iteration with Guessing for Markov Chains and Markov Decision Processes

      • Open Access
      Krishnendu Chatterjee, Mahdi JafariRaviz, Raimundo Saona, Jakub Svoboda
      Dieses Kapitel untersucht die Optimierung der Value Iteration (VI) für Markov-Ketten (MCs) und Markov-Entscheidungsprozesse (MDPs), wobei der Schwerpunkt auf der Verbesserung der Effizienz von VI durch innovative Vorverarbeitungstechniken liegt. Die Autoren stellen Guessing VI vor, einen neuartigen Ansatz, der die Anzahl der Bellman-Aktualisierungen, die für die Wertangleichung erforderlich sind, deutlich reduziert. Für MCs stellt das Kapitel einen fast linearen Vorverarbeitungsalgorithmus vor, der in Kombination mit Schätzwerten nur subexponentiell viele Bellman-Aktualisierungen erfordert. Dieser Ansatz ist symbolisch umsetzbar und zeigt wesentliche Verbesserungen gegenüber bestehenden Methoden. Das Kapitel weitet diese Technik auch auf MEPs aus und präsentiert eine neue Analyse der VI-Konvergenz und eine praktische Umsetzung namens Guessing VI. Experimentelle Ergebnisse zum Quantitativen Verifikationsbenchmark Set zeigen, dass Guessing VI in einer beträchtlichen Anzahl von Fällen bestehende VI-basierte Ansätze übertrifft, was sein Potenzial für praktische Anwendungen verdeutlicht. Das Kapitel behandelt auch verwandte Arbeiten und bietet einen umfassenden Überblick über die theoretischen Grundlagen und experimentellen Bewertungen, was es zu einer wertvollen Ressource für Forscher und Praktiker auf dem Gebiet der probabilistischen Verifikation und Optimierung macht.
      PDF-Version jetzt herunterladen
  4. Equivalence Checking

    1. Frontmatter

    2. Equivalence Checking of a libm Port

      • Open Access
      Mark S. Baranowski, Zvonimir Rakamarić, Ganesh Gopalakrishnan
      Dieses Kapitel untersucht die Überprüfung der Äquivalenz eines Rust-Ports der musl C Mathematik-Bibliothek, wobei der Schwerpunkt auf den Herausforderungen und Lösungen bei der Überprüfung der Korrektheit des portierten Codes liegt. Die Arbeit nutzt den SMACK-Softwareprüfer, der sowohl C als auch Rust unterstützt, um sicherzustellen, dass das Verhalten der ursprünglichen C-Bibliothek mit der Rust-Implementierung übereinstimmt. Das Kapitel vertieft sich in die Feinheiten der Fließkomma-Arithmetik, die durch Rundungen und spezielle Werte wie NaN zusätzliche Komplexitäten mit sich bringt. Es untersucht den Toolflow von SMACK und beschreibt, wie es den LLVM-IR-Code zur Verifikation mit Backend-Solvern wie Z3 und CVC5 in eine Boogie Intermediate Verifikationssprache übersetzt. In diesem Kapitel werden auch verschiedene Techniken zur Verbesserung der Skalierbarkeit von Verifikationen diskutiert, darunter eine übermäßige Annäherung von Theorien, die Einschränkung von Operationen zur Vermeidung von NaN-Werten und eine gesteuerte Äquivalenzprüfung. Praktische Experimente werden an einer Reihe von Benchmarks durchgeführt, die die Leistungsfähigkeit verschiedener Prüfer und die Entdeckung von Fehlern sowohl in der Rust-Bibliothek als auch im SMACK-Prüfer offenbaren. Das Kapitel schließt mit einer Diskussion über verwandte Arbeiten und das Potenzial für zukünftige Anwendungen der entwickelten Techniken.
      PDF-Version jetzt herunterladen
    3. Revisiting Differential Verification: Equivalence Verification with Confidence

      • Open Access
      Samuel Teuber, Philipp Kern, Marvin Janzen, Bernhard Beckert
      Dieses Kapitel untersucht den kritischen Bereich der Äquivalenzüberprüfung neuronaler Netzwerke und konzentriert sich auf die Herausforderungen und Fortschritte bei der Gewährleistung, dass sich neue neuronale Netzwerke den etablierten Referenznetzen äquivalent verhalten. Es beginnt mit der Komplexität der Spezifizierung neuronaler Netzwerkverhalten und der relativ einfachen Formalisierung von Äquivalenzeigenschaften, die für verschiedene Anwendungen wie Umschulung, Schnitt und Schüler-Lehrer-Ausbildung von entscheidender Bedeutung sind. Der Text geht auf die theoretischen Grundlagen der Äquivalenzverifizierung ein und hebt die KoNP-Vollständigkeit der Top-1-Äquivalenzverifizierung hervor, eine bedeutende Erkenntnis, die bisher nicht etabliert wurde. Es werden Differentielle Zonotope eingeführt, ein innovativer abstrakter Bereich, der die Effizienz differentiellen Denkens bei der Äquivalenzüberprüfung verbessert. Diese Methode zeigt in Verbindung mit einer geeigneten Verfeinerung heuristischer und Generatorkompressionstechniken eine überlegene Leistung gegenüber bestehenden Ansätzen. Das Kapitel schlägt außerdem eine vertrauensbasierte Klassifikationsäquivalenzeigenschaft vor, die eine Überprüfung über größere Teile des Eingabebereichs ermöglicht. Diese Eigenschaft nutzt die Vertrauenswerte, die durch neuronale Netzwerke der Klassifikation bereitgestellt werden, und bietet einen globaleren und praktischeren Ansatz zur Überprüfung der Äquivalenz. Der Evaluierungsbereich zeigt die Umsetzung dieser Methoden in einem neuen Tool, VeryDiff, das erhebliche Beschleunigungen erzielt und in verschiedenen Benchmark-Szenarien modernste Prüfer übertrifft. Das Kapitel schließt mit einer Diskussion über die Beschränkungen und zukünftigen Richtungen der differentiellen Verifikation und betont ihr Potenzial, den Bereich der Verifikation neuronaler Netzwerke zu revolutionieren.
      PDF-Version jetzt herunterladen
    4. Refuting Equivalence in Probabilistic Programs with Conditioning

      • Open Access
      Krishnendu Chatterjee, Ehsan Kafshdar Goharshady, Petr Novotný, Đorđe Žikelić
      Dieses Kapitel untersucht die schwierige Aufgabe, Äquivalenz in probabilistischen Programmen (PPs) zu widerlegen, die Konditionierung beinhalten. PPs, die Standardprogramme um probabilistische Anweisungen erweitern, sind in verschiedenen Bereichen wie Vernetzung, Datenschutz, Sicherheit und Robotik weit verbreitet. Das Kapitel stellt eine bahnbrechende Methode zum Nachweis der Ungleichheit bedingter Produktionsverteilungen in ÖPP mit Konditionierung vor, ein Problem, das bis heute größtenteils ungelöst ist. Die Methode ist vollautomatisiert, anwendbar auf unendliche, diskrete und kontinuierliche Turing-vollständige PPs und liefert nachweislich korrekte Widerlegungen. Es baut auf den Vorstellungen von Supermartingalen (U / LESM) auf und führt das Konzept eines gewichteten Neustarts ein, um ÖPPs mit Konditionierung in konditionierungsfreie ÖPPs zu übersetzen. Das Kapitel stellt auch Garantien für die Solidität und Vollständigkeit der Beweisregel auf der Grundlage von U / LESM vor, ein neuartiges Ergebnis auf diesem Gebiet. Darüber hinaus enthält sie eine experimentelle Bewertung, die die Überlegenheit der Methode gegenüber bestehenden Baselines hinsichtlich der Anzahl der widerlegten Äquivalenzen belegt. Das Kapitel berührt auch die potenzielle Anwendung eines gewichteten Neustarts auf Ähnlichkeitswiderlegungen in ÖPP mit Konditionierung, was den Weg für zukünftige Forschungen in diesem Bereich ebnet.
      PDF-Version jetzt herunterladen
  5. Games

    1. Frontmatter

    2. Non-Zero-Sum Games with Multiple Weighted Objectives

      • Open Access
      Yoav Feinstein, Orna Kupferman, Noam Shenwald
      Das Kapitel untersucht die Synthese von Strategien in Multiplayer-Spielen mit gewichteten Zielen, wobei der Schwerpunkt auf der Interaktion von Komponenten in modernen Systemen liegt. Es stellt das Konzept der MaxWB-Spiele vor, bei denen jeder Spieler ein gewichtetes mehrfaches Büchi-Ziel hat, und untersucht die Stabilität und das Gleichgewicht dieser Spiele. Das Kapitel geht der Komplexität der Suche nach stabilen Profilen nach, die die gewünschten Eigenschaften erfüllen, wobei verschiedene Einschränkungen der Gewichtsfunktionen und deren Auswirkungen auf die Ausdruckskraft und Komplexität der Spiele berücksichtigt werden. Es führt auch das Konzept der Spiele mit Zahlungen ein, bei denen die Spieler einander Anreize geben können, vorteilhafte Strategien zu verfolgen. Das Kapitel bietet eine umfassende Analyse des DNE-Problems und bietet Einblicke in die Synthese von Strategien in Spielen mit Zahlungen und die monetäre Reparatur von Systemen. Es wird auch die Anwendung von MaxWB-Spielen in verschiedenen Umgebungen diskutiert, wie etwa Roboter, die ein Lager patrouillieren und Supercomputer, die Kalkulationsanfragen bearbeiten, wobei die praktische Relevanz der diskutierten Konzepte hervorgehoben wird.
      PDF-Version jetzt herunterladen
    3. Fast value iteration: A uniform approach to efficient algorithms for energy games

      • Open Access
      Michaël Cadilhac, Antonio Casares, Pierre Ohlmann
      Das Kapitel untersucht die effiziente Berechnung von Energiewerten in Spielen mit endloser Dauer, in denen zwei Spieler, Min und Max, durch eine endlich gerichtete Grafik navigieren, um ihre Auszahlungen zu optimieren. Es führt einen einheitlichen Ansatz zur schnellen Wertwiederholung ein, der bestehende Algorithmen vereinheitlicht und vereinfacht und eine systematische Methode zur Herstellung effizienter Löser bereitstellt. Der Text vertieft sich in die theoretischen Grundlagen von Energie- und Mean-Paid-Spielen und hebt die Positionsbestimmung hervor, die es den Spielern erlaubt, Strategien anzuwenden, die nur von der aktuellen Spielposition abhängig sind. Es werden verschiedene algorithmische Paradigmen diskutiert, darunter Wertwiederholungen und Strategieverbesserungen, und hybride Algorithmen eingeführt, die Elemente aus beiden kombinieren. Das Kapitel stellt ein auf potenziellen Verringerungen basierendes Rahmenwerk für die schnelle Iteration von Werten vor, das Zyklusgewichte und mittlere Auszahlungswerte beibehält und so die Korrektheit der daraus abgeleiteten Algorithmen sicherstellt. Es untersucht und vereinheitlicht bestehende Algorithmen wie OSI und QDPM und schlägt neue Algorithmen wie Positive Path Iteration (PPI) und ihre dynamische Variante (DPPI) vor. Die empirische Bewertung vergleicht diese Algorithmen mit Paritätslösern der Spitzenklasse und demonstriert deren Effizienz und Robustheit, insbesondere im Umgang mit harten Instanzen. Das Kapitel schließt mit einer Diskussion offener Fragen und zukünftiger Forschungsrichtungen, wobei das Potenzial für weitere Verbesserungen und neue algorithmische Entwicklungen betont wird.
      PDF-Version jetzt herunterladen
    4. Proxy Attribute Discovery in Machine Learning Datasets via Inductive Logic Programming

      • Open Access
      Rafael Gonçalves, Filipe Gouveia, Inês Lynce, José Fragoso Santos
      Dieses Kapitel untersucht die entscheidende Frage der Fairness im maschinellen Lernen, indem es sich auf die Erkennung von Stellvertreterattributen konzentriert, die zu indirekter Diskriminierung führen können. Es führt eine bahnbrechende Methodik ein, die die induktive Logik-Programmierung (ILP) nutzt, um Stellvertreterattribute in Trainingsdatensätzen zu identifizieren und damit die Fairness von KI-Modellen zu verbessern. Das Kapitel bietet einen eingehenden Vergleich des ILP mit traditionellen kausalen Ansätzen, hebt die Vorteile des ILP im Umgang mit verrauschten Daten hervor, unterstützt arithmetische Beziehungen und erfordert minimales Domänenwissen. Es präsentiert auch ein praktisches Python-Tool, PADTAI, das erfolgreich auf Datensätze aus der realen Welt angewendet wurde und bis zu 83 Proxy-Beziehungen aufdeckt. Das Kapitel vertieft sich in die Bewertung des Tools, diskutiert die Stärken und Grenzen des Ansatzes und bietet Einblicke in die Interpretation und Validierung der erkannten Proxy-Beziehungen. Durch die Bewältigung der Herausforderungen bei der Entdeckung von Stellvertreterattributen trägt dieses Kapitel erheblich zu den laufenden Bemühungen bei, Fairness bei KI und maschinellem Lernen zu gewährleisten.
      PDF-Version jetzt herunterladen
    5. Reachability for Nonsmooth Systems with Lexicographic Jacobians

      • Open Access
      Chenxi Ji, Huan Zhang, Sayan Mitra
      Das Kapitel vertieft die Komplexität der Erreichbarkeitsanalyse für nichtglatte dynamische Systeme, die durch kontinuierliche, aber nicht differenzierbare Funktionen gekennzeichnet sind. Traditionelle Methoden haben mit diesen Systemen zu kämpfen, weil es an nicht differenzierbaren Punkten keine klar definierten Jakobiner gibt, was zu konservativen Übernäherungen führt. Die Autoren schlagen einen bahnbrechenden Algorithmus vor, der lexikographische Differenzierung zur Berechnung direktionaler Derivate nutzt und wertvolle Informationen erster Ordnung selbst an nicht differenzierbaren Punkten liefert. Dieser Ansatz umgeht die Notwendigkeit einer expliziten Berechnung erreichbarer Grenzwerte, eine bedeutende Barriere in der hybriden Erreichbarkeitsanalyse. Der Algorithmus wird durch experimentelle Ergebnisse an 12 nicht glatten dynamischen Benchmark-Modellen validiert, die eine bis zu 4-mal höhere Genauigkeit aufweisen als hochmoderne Werkzeuge wie CORA und JuliaReach. Das Kapitel untersucht auch die Anwendung dieser Methode auf neuronale ODEs der ReLU, einer besonders herausfordernden Klasse nichtglatter Systeme, und demonstriert ihr Potenzial, die Erreichbarkeitsanalyse komplexer dynamischer Systeme voranzutreiben.
      PDF-Version jetzt herunterladen
Titel
Tools and Algorithms for the Construction and Analysis of Systems
Herausgegeben von
Arie Gurfinkel
Marijn Heule
Copyright-Jahr
2025
Electronic ISBN
978-3-031-90653-4
Print ISBN
978-3-031-90652-7
DOI
https://doi.org/10.1007/978-3-031-90653-4

Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.

    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Deutsche Telekom MMS GmbH/© Vendosoft, Noriis Network AG/© Noriis Network AG, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data, Videocast 1: Standbild/© Springer Fachmedien Wiesbaden, IT-Director und IT-Mittelstand: Ihre Webinar-Matineen /© da-kuk / Getty Images / iStock