Service-Oriented Computing
18th Symposium and Summer School, SummerSOC 2024, Crete, Greece, June 24–29, 2024, Revised Selected Papers
- 2025
- Buch
- Herausgegeben von
- Marco Aiello
- Johanna Barzen
- Schahram Dustdar
- Frank Leymann
- Verlag
- Springer Nature Switzerland
Über dieses Buch
Über dieses Buch
This book constitutes the refereed proceedings of the 18th Symposium and Summer School on Service-Oriented Computing, SummerSOC 2024, held in Crete, Greece, during June 24–29, 2024.
The 8 revised full papers and 1 short paper presented in these proceedings were carefully reviewed and selected from 24 submissions. They cover the following topics: modeling the digital world; quantum computing; data platforms.
Inhaltsverzeichnis
-
Frontmatter
-
Modeling the Digital World
-
Frontmatter
-
API-Driven Cloud-Edge Orchestration with PULCEO: A Proof of Concept
Sebastian Böhm, Guido WirtzDas Kapitel stellt PULCEO vor, eine Plattform, die entwickelt wurde, um die komplexe Aufgabe der Cloud-Edge-Orchestrierung zu vereinfachen. Darin werden die Herausforderungen beim Management heterogener Ressourcen in Cloud-Edge-Umgebungen diskutiert und PULCEO als Lösung präsentiert. Die Plattform basiert auf einer Mikroservice-Architektur und enthält eine RESTful API für die Interaktion. Die Fallstudie demonstriert die Fähigkeiten von PULCEO durch die Implementierung einer typischen Cloud-Edge-Topologie, die Konfiguration von Umgebungen, die Platzierung von Anwendungen und die Bewertung von Leistungskennzahlen. Die Evaluierung zeigt, dass PULCEO für den Einsatz in der realen Welt geeignet ist und fortschrittliche Orchestrierungstechniken aus der Cloud unterstützt.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractOver the years, many solutions have emerged for performing service placement decisions in cloud-edge systems to optimize response time, energy usage, or cost. However, most of the solutions are theoretically evaluated or by using simulators. To tackle this issue, we conceptually designed and implemented PULCEO (Platform for Universal and Lightweight Cloud-Edge Orchestration) to contribute a platform for holistically creating, operating, monitoring, evaluating, and documenting cloud-edge orchestration environments and experimental evaluations. We used our platform to realize a representative sample topology that integrates on-premises and cloud resources. We also obtained monitoring data and performed service placement operations to analyze the application response time as an essential metric in such environments. The evaluation shows that our platform can fulfill essential requirements for cloud-edge orchestration, especially creating topologies with configurable monitoring and support for dynamically obtaining link quality metrics. -
An Orchestrator for the Dynamic Extension of Automotive E/E Architectures to the Cloud
Martin Sommer, Houssem Guissouma, Marc Schindewolf, Eric SaxDas Kapitel stellt die Herausforderungen moderner E / E-Architektur im Automobilbau vor und konzentriert sich auf die Notwendigkeit flexibler und dynamischer Softwarefunktionen. Analog zur IT-Branche wird ein Service-orientierter Architekturansatz (SOA) vorgeschlagen, der die nachträgliche Erweiterung neuer Softwarefunktionen und das Outsourcing kompletter Softwarekomponenten (SWCs) in externe Netzwerke wie die Cloud ermöglicht. Das Kapitel definiert und entwirft einen Orchestrator zur Verwaltung dieser dynamischen Erweiterungen, skizziert die wichtigsten Anforderungen und implementiert einen Prototypen unter Verwendung der Robot Operating System (ROS) 2-Middleware. Der Orchestrator wird anhand eines Testszenarios bewertet, das die HLK-Funktion eines Fahrgastraummodells für Stadtbusse einbezieht und seine Fähigkeit demonstriert, je nach Netzwerkbedingungen dynamisch zwischen On-Board-Services und Cloud-basierten Diensten zu wechseln. Das Kapitel schließt mit der Hervorhebung des Potenzials zukünftiger Verbesserungen, wie etwa der Berücksichtigung von Sicherheitsniveaus und Servicequalitätsanforderungen bei der Integration von Cloud-Diensten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractService orientation finds its way into automotive electrical/electronic (E/E) architectures. The greater flexibility and adaptability of a service-oriented architecture (SOA) requires a central module, called an orchestrator, which manages the communication structure and updates the available functions. Such a software orchestrator in the automotive sector is part of scientific research, especially because of the strict safety and availability requirements of automated and connected vehicles.In this paper, our own requirements for an orchestrator are compared with existing requirements and implementations from the scientific community. This leads to a focus of this work on extending the E/E architecture into the cloud to produce a control-over-the-air (COTA) approach. Such an approach is implemented using a non-safety-critical function and carried out on the institute’s own demonstrator platform representing a basic modern E/E architecture with cloud connection. The resulting orchestrator is able to dynamically switch between different controllers, one deployed in the vehicle and one in the cloud, and close the loop of a heating, ventilation and air conditioning (HVAC) control system of a city bus passenger compartment model executed on our demonstrator platform. Finally, we compare and evaluate the requirements that we have identified as open in the community to see if they have been implemented. -
Integrating Artifact Translation Into Model Transformation Processes
Daniel Vietz, Johanna Barzen, Lukas Harzenetter, Frank Leymann, Benjamin WederDas Kapitel untersucht die entscheidende Rolle von Modellen in der Softwareentwicklung und die Herausforderungen bei der Erstellung detaillierter, feinkörniger Modelle. Es stellt das Konzept der Modelltransformationen vor, die ein Softwaremodell in ein anderes umwandeln, und diskutiert verschiedene Ansätze wie Dreifachgrammatiken und relationale Ansätze. Der Schwerpunkt liegt auf der Integration von Artefaktübersetzungen in Modelltransformationen, wobei das Problem manueller Anpassungen an Artefakte nach der Transformation angesprochen wird. Der vorgeschlagene Ansatz erweitert Transformationsregeln um Translation Mappings, die die automatisierte Übersetzung von Artefakten während der Modelltransformation ermöglichen. Das Kapitel stellt außerdem eine prototypische Umsetzung und zwei Fallstudien vor, um die praktische Durchführbarkeit des Ansatzes zu demonstrieren. Abschließend werden die Beschränkungen und die zukünftige Arbeit diskutiert, einschließlich des Potenzials einer automatisierten Migration von Modellbeispielen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractModel transformation is a critical aspect of modern software engineering, enabling the effective development, maintenance, and evolution of software systems while improving their quality, correctness, and interoperability. However, one issue arises when a model under transformation references artifacts such as source code files or binary executables: Model transformations typically do not consider the referenced artifacts, resulting in the possibility of them becoming incompatible with the final model after transformation. As a result, the referenced artifacts often require manual adaptations which can be complex, time-consuming, and error-prone. To address this issue, we present an approach that integrates artifact translation mechanisms into the model transformation process. In addition to the translation between different concrete artifacts during model transformation, our approach also enables the use of abstract artifacts in models in order to translate them into concrete artifacts during model refinement, which is a special type of model transformation. To validate the practical feasibility of our approach, we present a prototype and two case studies in the domain of quantum software engineering. -
Evaluating Cloud-Native Deployment Options with a Focus on Reliability Aspects
Franka Knoch, Robin Lichtenthäler, Guido WirtzDas Kapitel "Evaluating Cloud-Native Deployment Options with a Focus on Reliability Aspects" (Bewertung von Cloud-Native-Deployment-Optionen mit Fokus auf Zuverlässigkeitsaspekte) vertieft sich in die vielfältige Landschaft des Cloud Computing und untersucht die verschiedenen heute verfügbaren Servicemodelle und -angebote. Es beleuchtet die Entwicklung von der Bereitstellung grundlegender Infrastruktur hin zu anspruchsvollen Cloud-Anwendungen, die die einzigartigen Eigenschaften von Cloud-Umgebungen nutzen. Die Autoren konzentrieren sich auf die Einsatzoptionen für diese Anwendungen und betonen die Bedeutung von Zuverlässigkeitsaspekten wie Verfügbarkeit, Fehlertoleranz und Verwertbarkeit. Aufbauend auf einem bestehenden Qualitätsmodell untersucht das Kapitel, wie sich unterschiedliche Einsatzoptionen auf diese Zuverlässigkeitsfaktoren auswirken. Die Methodik beinhaltet eine praktische Umsetzung mit der Referenzanwendung TeaStore, die auf Amazon Web Services (AWS) eingesetzt wird, um verschiedene Einsatzstrategien zu bewerten und zu vergleichen. Die Ergebnisse werden dann verwendet, um das Qualitätsmodell und den damit verbundenen Modellierungsansatz zu verfeinern und eine genauere Darstellung und Bewertung nativer Cloud-Architekturen zu ermöglichen. Das Kapitel schließt mit der Erörterung der wichtigsten Erkenntnisse, Einschränkungen und potenziellen zukünftigen Arbeit und bietet wertvolle Erkenntnisse für Fachleute, die die Zuverlässigkeit von cloud-basierten Anwendungen optimieren wollen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractFor deploying applications in the cloud various options exist that can be compared based on their impacts on different quality attributes. In this work, we evaluate such deployment options with a focus on the quality aspect of reliability. More specifically, we consider characteristics relevant to reliability in the context of so-called cloud-native applications. The chosen characteristics stem from a quality model for cloud-native applications. By implementing different options to realize these characteristics in an exemplary application on AWS, we make them comparable. This evaluation is then used to extend the modeling approach for the quality model so that the different implementation options can be represented and evaluated using the quality model. Our contribution therefore is an investigation of deployment options for cloud-native applications considering reliability, as well as its transfer into an existing quality evaluation approach for further experimentation. -
Towards a Taxonomy of Infrastructure as Code Misconfigurations: An Ansible Study
Roya Nasiri, Indika Kumara, Damian Andrew Tamburri, Willem-Jan van den HeuvelDas Kapitel stellt Infrastructure as Code (IaC) und seine Vorteile vor und unterstreicht die Notwendigkeit der Qualitätssicherung in IaC-Skripten. Es präsentiert eine Taxonomie von 25 Fehlerkonfigurationsklassen für Ansible, die aus der Analyse der 100 besten Ansible-Module abgeleitet wurde. Die Taxonomie deckt verschiedene Arten von Fehlkonfigurationen ab, wie Modulmissbrauch, Abhängigkeitsverletzungen und illegale Parameterwerte. Zusätzlich beschreibt das Kapitel ein Proof-of-Concept-Tool zur automatischen Erkennung von Fehlkonfigurationen mithilfe des Ansible Liner Tools. Die Verallgemeinerbarkeit der Taxonomie wird durch eine vergleichende Analyse mit anderen IaC-Tools wie Terraform und Puppet demonstriert. Das Kapitel schließt mit einer Diskussion über Bedrohungen der Gültigkeit und zukünftige Forschungsrichtungen, was es zu einer wertvollen Ressource für Fachleute macht, die die Zuverlässigkeit und Sicherheit ihrer IAK-Skripte verbessern wollen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractInfrastructure as Code (IaC) enables the management and provisioning of infrastructure using code instead of manual processes. While the IaC approach can simplify and automate infrastructure management, the configuration errors (i.e., misconfigurations) in the IaC scripts can significantly hinder achieving the benefits of the automation, incur undue costs, and leave the system faulty and insecure. In this paper, we present a taxonomy of IaC misconfigurations to assist practitioners and researchers in building tools for detecting misconfigurations. The user manuals of the IaC frameworks describe configuration parameters and their usage constraints, and provide recommendations on configuring certain parameters correctly. Hence, we systemically collected and analyzed 100 user manuals of the Ansible IaC language to compile a catalog of 25 configuration errors. We also developed a proof-of-concept tool for using the information in the user manuals to generate misconfiguration detection rules.
-
-
Quantum Computing
-
Frontmatter
-
Minimial-Risk Training Samples for QNN Training from Measurements
Alexander Mandl, Johanna Barzen, Marvin Bechtold, Frank LeymannDas Kapitel geht der Herausforderung nach, Quanten-Neuronale Netzwerke (QNNs) anhand von Messungen auszubilden, bei denen nur Messwerte einer Quantentransformation zur Verfügung stehen. Es werden spezifische Trainingsproben eingeführt, die selbst bei Verwendung einer einzigen Trainingsprobe einen minimalen Annäherungsfehler gewährleisten. Die Autoren liefern analytische Ergebnisse und Theoreme, die zeigen, dass bestimmte Trainingsproben null Fehler garantieren können. Zusätzlich führen sie Simulationsexperimente durch, um diese Ergebnisse zu verifizieren und die Leistung von QNNs mit und ohne Verflechtungen zu vergleichen. Das Kapitel diskutiert auch die Implikationen dieser Ergebnisse und schlägt zukünftige Forschungsrichtungen zur Verbesserung der QNN-Trainingsprozesse vor.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractBy using Quantum Neural Networks (QNNs), the principles of quantum computing can be employed to perform supervised learning on quantum computers. Herein, a unitary transformation is trained using sets of quantum input states and their associated outputs. When the exact output states of the transformation are known, recent results show that entanglement can drastically reduce the approximation error of a QNN, without increasing the number of required training samples. However, the exact output states might not be readily available. In certain scenarios, only the measurement outcomes of these quantum states after measurement with an observable are available. Therefore, this work investigates the effect of entangled training samples when training using measurement outcomes. For observables described by one-dimensional projectors, we specify entangled training samples that minimize the approximation error. Furthermore, we validate our findings on a simulator and show that when using entangled training samples, the approximation error depends on the factorization of the entangled samples. -
Exploring the Cost Landscape of Variational Quantum Algorithms
Lavinia Stiliadou, Johanna Barzen, Frank Leymann, Alexander Mandl, Benjamin WederDas Kapitel vertieft die Feinheiten der Kostenlandschaft in Variationalen Quantenalgorithmen (VQAs) und hebt das Potenzial des Quantencomputerwesens in Branchen wie dem Finanzwesen und der Chemie hervor. Er diskutiert die Beschränkungen aktueller Quantencomputer, insbesondere Noisy Intermediate-Scale Quantum (NISQ) -Bauelemente, und die Entwicklung von VQAs als vielversprechende Lösung. Der Optimierungsprozess in den VQAs steht vor erheblichen Herausforderungen wie kargen Hochebenen und engen Schluchten, die im Detail untersucht werden. Das Kapitel führt verschiedene Kennzahlen ein, einschließlich Gesamtvariation, Fourierdichte und Skalarkrümmung, um die Kostenlandschaft zu charakterisieren und Optimierer effektiv zu führen. Durch Experimente zum MaxCut-Problem wird die Relevanz dieser Kennzahlen demonstriert und gezeigt, wie sie wertvolle Einsichten in den Optimierungsprozess liefern können. Das Kapitel schließt mit der Betonung der Notwendigkeit weiterer Forschungen über die Korrelation zwischen diesen Kennzahlen und der Entwicklung neuer Kennzahlen, um die Kostenlandschaft besser zu verstehen und zu navigieren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractVariational Quantum Algorithms (VQAs) have emerged as a promising approach to leverage the capabilities of quantum computing, even within the constraints of limited qubits and noise. Understanding their iterative process, including their cost landscapes, is necessary to optimize these algorithms. This landscape represents the interplay between the algorithm’s parameters and the cost function, offering a visualization of the challenges for the optimization process. Regions known as barren plateaus and narrow gorges can impede optimization algorithms by causing gradients to vanish, leading to stalled optimization processes. Recognizing and devising strategies to circumvent these severe problems is essential for designing VQAs. For this purpose, we provide an overview of local and global metrics to support the understanding of the VQA cost landscape. Moreover, our results may serve as a baseline for further research on cost landscapes.
-
-
Data Platforms
-
Frontmatter
-
A Service-Based Pipeline for Complex Linguistic Tasks Adopting LLMs and Knowledge Graphs
Filippo Bianchini, Marco Calamo, Francesca De Luzi, Mattia Macrì, Massimo MecellaDas Kapitel befasst sich mit der Evolution natürlicher Sprachverarbeitungssysteme und hebt die Entstehung von Large Language Modellen (LLMs) wie GPT-4 hervor. Sie befasst sich mit den Herausforderungen, Halluzinationen zu mildern und die Abstimmung der LLM-Ergebnisse auf die Absichten der Nutzer sicherzustellen. Das vorgeschlagene konzeptionelle Rahmenwerk integriert Dokumentensuche und strukturierte Wissensdarstellungen durch Wissensgraphen (KGs), um die Output-Kohärenz und das Abrufen von Fachwissen zu verbessern. Das Kapitel stellt eine Mikroservice-Architektur zur effizienten Lösung komplexer sprachlicher Aufgaben vor, die drei Hauptdienstleistungen umfasst: Domänenspezifische Erstellung von KGs, Retrieval Augmented Generation (RAG) und Validierung. Ein laufendes Beispiel im Rechtsbereich veranschaulicht die praktische Anwendung dieser Architektur und zeigt das Potenzial dieses Ansatzes bei der Lösung komplexer sprachlicher Aufgaben innerhalb eines bestimmten Bereichs. Das Kapitel behandelt auch die Methodik zum Aufbau von KGs aus unstrukturierten Dokumenten und den Einsatz von Zero-Shot Prompt Engineering, um die Informationsextraktion zu erleichtern. Die Schlussfolgerung beleuchtet zukünftige Forschungsrichtungen und potenzielle Verbesserungen des vorgeschlagenen Rahmens.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis paper introduces a microservices-based architecture designed for executing complex linguistic tasks using Large Language Models (LLMs) and Knowledge Graphs (KGs). It has been conceived by focusing on the legal domain, and it integrates Domain-specific KGs and Constraint KGs to address tasks such as law extraction and reasoning. We outline how the pipeline works through a running example involving the extraction of legislative references from legal documents. Furthermore, we discuss a methodology for building KGs from unstructured documents and employing zero-shot prompt engineering techniques to facilitate information extraction. Finally, we present a validation process leveraging the Constraint KG to ensure the coherence and correctness of generated outputs. -
Design and Implementation of a High Performance Domain Name Service on Commodity Hardware
Florian Heinz, Martin KlugeDas Kapitel befasst sich mit dem Design und der Implementierung von Dynaspore, einem Hochleistungs-DNS-Server, der DNS-Abfragen mit 10 GBit / s auf handelsüblicher Hardware bearbeiten kann. Das System ist in eine Hochgeschwindigkeits-Datenebene und eine Steuerungsebene strukturiert, wodurch die Leistung optimiert wird, indem DNS-Antworten vorberechnet werden und eine spezialisierte Datenstruktur auf Basis von Radixbäumen für schnelle Nachforschungen verwendet wird. Es beinhaltet auch eine staatenlose Implementierung zur Beantwortung von TCP-Anfragen und DNSSEC-Unterstützung. Die Auswertung anhand eines realen Datensatzes zeigt die Fähigkeit des Systems, linear mit der Anzahl der Kerne zu skalieren, wodurch nahezu lineare Leistungssteigerungen erzielt werden. Das Kapitel schließt mit dem Vergleich von Dynaspore mit anderen Hochleistungs-DNS-Servern und der Diskussion potenzieller zukünftiger Verbesserungen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe internet Domain Name System (DNS) is one of the essential components of the World Wide Web and the whole internet. The core concept is a large distributed and hierarchical database that translates internet domain names into host addresses and other supplemental information. Name servers can serve millions of domains and usually have to answer thousands of requests per second. Because of their vital function for any internet service, domain name servers are regularly target of Denial-of-Service attacks, where millions of queries per second are used to overload the database system. This work describes an approach on how to achieve answer rates in this dimension with a single server built from low-cost commodity hardware.
-
-
Backmatter
- Titel
- Service-Oriented Computing
- Herausgegeben von
-
Marco Aiello
Johanna Barzen
Schahram Dustdar
Frank Leymann
- Copyright-Jahr
- 2025
- Verlag
- Springer Nature Switzerland
- Electronic ISBN
- 978-3-031-72578-4
- Print ISBN
- 978-3-031-72577-7
- DOI
- https://doi.org/10.1007/978-3-031-72578-4
Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.