Cloud Computing, Big Data and Emerging Topics
13th Conference, JCC-BD&ET 2025, La Plata, Argentina, June 24–26, 2025, Revised Selected Papers
- 2026
- Buch
- Herausgegeben von
- Marcelo Naiouf
- Laura De Giusti
- Franco Chichizola
- Leandro Libutti
- Verlag
- Springer Nature Switzerland
Über dieses Buch
Über dieses Buch
This book constitutes the revised selected papers of the 13th International Conference on Cloud Computing, Big Data & Emerging Topics, JCC-BD&ET 2025, held in La Plata, Argentina, during June 24-26, 2025.
The 12 full papers presented were carefully reviewed and selected from 35 submissions. They were focused on topical sections as follows: Parallel and Distributed Computing; Machine and Deep Learning; Smart Cities and E-Government; Visualization; Emerging Topics and Innovation in Computer Science Education.
Inhaltsverzeichnis
-
Frontmatter
-
Parallel and Distributed Computing
-
Frontmatter
-
Implementation of a Smart Electricity Meter
Matias Manzin, Santiago Medina, Leandro Libutti, Diego Montezanti, Leonardo NavarriaDieses Kapitel befasst sich mit der Entwicklung und Implementierung eines intelligenten Stromzählers zur Überwachung des Energieverbrauchs in großen Gebäuden wie Universitäten. Der modulare Aufbau des Messgeräts ermöglicht eine einfache Integration in bestehende intelligente Energiemanagementsysteme, wobei sowohl drahtgebundene als auch drahtlose Kommunikationsoptionen zur Verfügung stehen. Der Text enthält eine detaillierte Darstellung der Hardware-Architektur des Messgeräts, die zwecks einfacher Modifikation und zukünftiger Upgrades in verschiedene Module unterteilt ist. Kalibriervorgänge werden gründlich erklärt, um die Genauigkeit und Zuverlässigkeit des Messgeräts zu gewährleisten. Es werden Testszenarien aus der realen Welt vorgestellt, darunter Messungen des Energieverbrauchs während des Starts eines Desktop-Computers und verschiedene Matrix-Multiplikationsalgorithmen. Das Kapitel schließt mit einer Diskussion über die Kosteneffektivität und Genauigkeit des Messgeräts, wobei das Potenzial des Messgeräts für signifikante Energie- und Emissionssenkungen in großen Infrastrukturen hervorgehoben wird.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn recent years, the economic and ecological impact of energy consumption in public and private institutions has increased, making it necessary to have computer and electronic systems that allow monitoring energy expenditure in the different areas of an institution. Currently, smart buildings have automated systems that include sensor nodes that allow the monitoring and control of environmental parameters, facilitating the goal of achieving energy-efficient, comfortable, and cost-effective environments. In this context, this work presents the design and development of a smart energy consumption meter that can be integrated into any control and monitoring system without the need for significant changes, thanks to its modular implementation. The hardware architecture is presented, focusing on the main functionality of each module and the interconnection and communication between them. In addition, the calibration tests performed to adjust the measurement parameters and obtain acceptable relative measurement errors are described. Tests performed with the measuring node on a heterogeneous architecture computer, comprising CPU and GPU cores and running a computationally intensive algorithm, show that the accumulated power decreases as the amount of resources used increases, validating the measuring capability of the developed system. -
Implementation of the Sylvester Equation for HODLR and HALR -Matrices
Gonzalo Berger, Florencia Uslenghi, Ernesto Dufrechou, Pablo EzzattiDieses Kapitel befasst sich mit der Implementierung der Sylvester-Gleichung für Hierarchical Off-Diagonal Low Rank (HODLR) und Hierarchical Adaptive Low Rank (HALR) Matrizen und konzentriert sich auf die Verringerung der Rechenkomplexität durch Approximationen niedrigen Ranges. Die Autoren stellen eine MATLAB-Implementierung unter Verwendung der hm-Toolbox-Bibliothek vor, die verschiedene Arten hierarchischer Matrizen unterstützt. Das Kapitel bietet eine detaillierte experimentelle Bewertung, die Ausführungszeiten für unterschiedliche Matrixgrößen und Rangwerte misst und die Leistung hierarchischer und nicht hierarchischer Fälle vergleicht. Die Ergebnisse unterstreichen das Potenzial hierarchischer Matrizen für größere Instanzen, trotz Speicherbeschränkungen. Darüber hinaus werden in diesem Kapitel die Auswirkungen des Einsatzes unterschiedlicher Sylvester-Löser und die Vorteile der Parallelisierung diskutiert. Die Autoren untersuchen auch die Beziehung zwischen Matrixgröße, Rang und Ausführungszeit und identifizieren Bereiche für zukünftige Verbesserungen. Insgesamt bietet das Kapitel eine umfassende Analyse der Sylvester-Gleichungsimplementierung für HODLR und HALR-Matrizen und liefert wertvolle Erkenntnisse für Fachleute auf diesem Gebiet.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe development of hierarchical matrices as a tool to accurately approximate dense matrices of large dimensions allows addressing problems of scales that would be difficult to address using the conventional representations. This opens up an important range of opportunities in various domains of application. However, the value of this mathematical tool could be diminished if it cannot make an efficient use of modern hardware architectures. In this work, we implement a recently proposed algorithm to solve Sylvester equations involving two types of hierarchical matrices, HODLR and HALR. We also perform an experimental evaluation on a multicore CPU system to detect the principal performance bottlenecks, and discuss the main challenges to develop high-performance implementation of this type of algorithms.
-
-
Machine and Deep Learning
-
Frontmatter
-
Epanechnikov Nonparametric Kernel Density Estimation Based Feature-Learning in Respiratory Disease Chest X-Ray Images
Verónica Marsico, Antonio Quintero-Rincón, Hadj BatatiaDieses Kapitel untersucht die Anwendung der nichtparametrischen Epanechnikov-Kernel-Dichteabschätzung (EKDE) für Feature-Learning in Röntgenbildern der Brust zur Erkennung von Atemwegserkrankungen, einschließlich COVID-19. Die Studie konzentriert sich auf den Einsatz von EKDE als Werkzeug zur Feature-Extraktion für eine statistisch-modellbasierte Lernmethode, die darauf abzielt, Anomalien in Röntgenbildern der Brust zu erkennen. Die Forschung umfasst die Berechnung des Mittelwerts und der Standardabweichung von EKDE für einen großen Datensatz von Röntgenbildern der Brust, wobei diese Merkmale in einem bimodalen logistischen Regressionsklassifikator verwendet werden, um zwischen normalen und erkrankten Fällen zu unterscheiden. Die Ergebnisse zeigen eine moderate Effektivität mit einer Genauigkeit von 70,14%, einer Sensitivität von 59,26% und einer Spezifität von 74,18%. Die Studie vergleicht die vorgeschlagene Methode auch mit anderen Deep-Learning-Techniken und hebt ihre Vorteile in Bezug auf Rechenkomplexität und Interpretierbarkeit hervor. Die Ergebnisse deuten darauf hin, dass EKDE ein wertvolles Werkzeug für die Diagnose von Atemwegserkrankungen sein kann, insbesondere in klinischen Umgebungen, in denen Früherkennung von entscheidender Bedeutung ist. Das Kapitel schließt mit der Diskussion des Potenzials für zukünftige Arbeit, einschließlich der Integration von EKDE-Features mit Deep-Learning-Modellen und der Optimierung der Entscheidungsschwelle des Modells.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis study presents a novel method for diagnosing respiratory diseases using image data. It combines Epanechnikov’s non-parametric kernel density estimation (EKDE) with a bimodal logistic regression classifier in a statistical-model-based learning scheme. EKDE’s flexibility in modeling data distributions without assuming specific shapes and its adaptability to pixel intensity variations make it valuable for extracting key features from medical images. The method was tested on 13808 randomly selected chest X-rays from the COVID-19 Radiography Dataset, achieved an accuracy of 70.14%, a sensitivity of 59.26%, and a specificity of 74.18%, demonstrating moderate performance in detecting respiratory disease while showing room for improvement in sensitivity. While clinical expertise remains essential for further refining the model, this study highlights the potential of EKDE-based approaches to enhance diagnostic accuracy and reliability in medical imaging. -
Evaluating Large Language Models for the Generation of Unit Tests with Equivalence Partitions and Boundary Values
Martín Rodríguez, Gustavo Rossi, Alejandro FernandezDieses Kapitel befasst sich mit der Bewertung von Large Language Models (LLMs) zur Generierung von Einheitstests unter Verwendung von Äquivalenzpartitionen und Grenzwerten. Es untersucht die Rolle der Testautomatisierung in der Softwareentwicklung und die Herausforderungen, vor denen Entwickler beim Schreiben effektiver Unit-Tests stehen. Die Studie vergleicht die Leistung von LLMs mit menschlichen Experten und konzentriert sich dabei auf Schlüsselkennzahlen wie Code Coverage, Mutation Score und schlechte Geruchserkennung. Sie unterstreicht auch die Bedeutung qualitativer Analysen bei der Bewertung der Wirksamkeit generierter Tests. Die Ergebnisse deuten darauf hin, dass LLMs bei der Testgenerierung vielversprechend sind, aber trotzdem menschlicher Überwachung bedürfen, um Genauigkeit und Qualität zu gewährleisten. Das Kapitel schließt mit einer Diskussion über das zukünftige Potenzial von LLMs bei der automatisierten Testgenerierung und die Notwendigkeit weiterer Forschung in diesem Bereich.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe design and implementation of unit tests is a complex task that many programmers neglect. This research evaluates the potential of Large Language Models (LLMs) in automatically generating test cases, comparing them with manual tests. An optimized prompt was developed, that integrates code and requirements, covering critical cases such as equivalence partitions and boundary values. The strengths and weaknesses of LLMs versus trained programmers were compared through quantitative metrics and manual qualitative analysis. The results show that the effectiveness of LLMs depends on well-designed prompts, robust implementation, and precise requirements. Although flexible and promising, LLMs still require human supervision. This work highlights the importance of manual qualitative analysis as an essential complement to automation in unit test evaluation. -
Real Estate Market in Buenos Aires (Argentina): A Hedonic and Interpretable Machine Learning Approach
Emiliano Gutiérrez, Laura Lanzarini, Fernando Delbianco, Rocío CecchiniDieses Kapitel befasst sich mit dem Immobilienmarkt von Buenos Aires und konzentriert sich auf die Anwendung hedonischer und maschineller Lernmodelle zur Vorhersage von Wohnungspreisen. Die Studie kombiniert Online-Verkaufsdaten von Mercado Libre mit öffentlichen Datenbanken, um einen robusten Datensatz für die Analyse zu erstellen. Schlüsselthemen sind der Vergleich traditioneller hedonischer Regression mit maschinellen Lernalgorithmen wie Random Forest und XGBoost, die Bedeutung der Interpretierbarkeit in maschinellen Lernmodellen und der Einfluss verschiedener Merkmale auf die Wohnungspreise. Die Ergebnisse unterstreichen die überlegene Vorhersagekraft von XGBoost, wobei Interpretierbarkeitsmethoden wie SHAP-Werte, PDPs und ICE-Diagramme Einblicke in die Bedeutung von Merkmalen und nichtlineare Beziehungen bieten. Die Studie kommt zu dem Schluss, dass maschinelle Lernmodelle, insbesondere XGBoost, erhebliche Vorteile bei der Erfassung komplexer Muster auf dem Immobilienmarkt bieten und die Preiseinschätzung und das Marktverständnis verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis research examines the real estate market in Argentina, aiming to contribute socially by providing a key tool for the accurate valuation of properties. This, in turn, promotes efficiency in resource allocation, enhances transparency, and fosters competition within the Argentine real estate sector. Furthermore, improving price prediction through machine learning constitutes a fundamental tool for the adoption of more effective housing policies.With over 63,000 records of apartment sales collected online and merged with geographical data, we applied hedonic regression and machine learning algorithms to predict sale prices. The most accurate method was XGBoost.In addition to focusing on price prediction, the study also emphasizes model interpretability. For this reason, we applied model-agnostic interpretability methods, including Partial Dependence Plots (PDP), Individual Conditional Expectation (ICE), and SHapley Additive exPlanations (SHAP). These methods provide transparency regarding which features are relevant for valuation, thereby complementing traditional approaches such as hedonic regression. -
Call Audit Automation in the “148” Government Helpline of Buenos Aires Province Using Generative Artificial Intelligence
María Paula Ponce, Franco Ezequiel LenDieses Kapitel befasst sich mit der Automatisierung der Anrufprüfung in der "148" -Notrufzentrale der Provinz Buenos Aires, die generative künstliche Intelligenz einsetzt. Die Studie skizziert einen vierstufigen methodischen Ansatz, der Signalverarbeitung, natürliche Sprachverarbeitung und modernste KI-Modelle kombiniert, um aufgezeichnete Interaktionen effizient zu analysieren. Zu den Schlüsselthemen zählen die Verwendung künstlicher Intelligenz, automatische Transkription, Anonymisierung sensibler Daten sowie Klassifikations- und Prüfungsmodule. Die Forschungsergebnisse heben die Implementierung fortschrittlicher KI-Modelle wie Gemma 2: 9B und LLaMA 3-8B hervor, die die Genauigkeit und Effizienz der Anrufprüfung deutlich verbessern. Die Studie diskutiert auch die Ergebnisse der Feinabstimmung verschiedener Modelle und die Auswirkungen der Automatisierung auf die Verkürzung der Prüfungszeit und die Erhöhung des Volumens geprüfter Anrufe. Die Ergebnisse zeigen das Potenzial künstlicher Intelligenz bei der Verbesserung der Dienstleistungsqualität, der Gewährleistung der Einhaltung regulatorischer Bestimmungen und der Verbesserung der Transparenz bei staatlichen Dienstleistungen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractGovernment call centers play a fundamental role in handling citizen inquiries and complaints. However, evaluating service quality, ensuring compliance with protocols, and detecting potential irregularities in interactions pose significant challenges due to the high volume of calls and the inherent inefficiencies of manual auditing, making it a costly, slow, and error-prone process.This paper presents an AI-driven solution for automating call audits in the “148” government helpline of Buenos Aires Province. The system leverages open-source artificial intelligence models, deployed within proprietary infrastructure, ensuring the privacy and security of sensitive data handled in these services. The project consists of two main stages:Automatic call transcription: We use OpenAI Whisper, an open-source Automatic Speech Recognition (ASR) model based on Transformer architectures, capable of processing multiple languages and handling variations in audio quality. Prior to inference, an audio preprocessing pipeline is applied, including silence removal, noise filtering, and volume normalization, to minimize transcription errors.Automated classification and auditing: Once transcribed, the calls are processed using a Large Language Model (LLM) optimized for classification tasks. A few-shot prompting approach is initially applied to identify relevant linguistic patterns. The model is then fine-tuned using LoRA (Low-Rank Adaptation) with a curated dataset of call examples, covering multiple categories and audit criteria such as violent or abusive language detection, proper request for personal identification (CUIT/DNI), and compliance with operational protocols in citizen-operator interactions.Automating this process significantly reduces the time and resources required for call auditing, providing objective insights into service quality, identifying areas for improvement, detecting behavioral patterns, and enhancing oversight of the “148” helpline. This ensures a better citizen experience and greater compliance with regulatory standards. -
Building Omnichannel Intelligent Virtual Assistants
Pablo Pintado, David Mejia, Gabriela Duque, Andrés Cabrera, Daniel Iturralde, Esteban Mora, José FajardoDieses Kapitel beschäftigt sich mit der Entwicklung intelligenter virtueller Assistenten (IVAs) im Omnichannel, wobei der Schwerpunkt auf der Unterstützung von Benutzern über mehrere Themen und Kanäle hinweg liegt. Die Forschungsergebnisse zeigen eine Lücke im aktuellen Stand der IVA-Implementierung auf, die sich typischerweise auf spezifische Anwendungsfälle, Kanäle oder Technologien konzentriert, wobei die Anpassungsfähigkeit an sich schnell entwickelnde Technologien und sich ändernde Benutzerbedürfnisse begrenzt ist. Die vorgeschlagene Lösung ist eine flexible Omnichannel-Middleware-Architektur, die eine einfache Integration verschiedener Komponenten des IVA-Ökosystems wie Wissensquellen, intelligente Verarbeitungsdienste, digitale Kanäle und andere interne und externe Dienstleistungen ermöglicht. Die Architektur ist so konzipiert, dass sie sich ohne großen Aufwand an unterschiedliche Umgebungen und Technologien anpassen lässt, was sie zu einer wertvollen Ressource für Organisationen macht, die zeitnahe Hilfe über den bevorzugten Kanal des Nutzers bereitstellen wollen. Das Kapitel bietet außerdem eine detaillierte Literaturübersicht, eine umfassende Methodik auf Grundlage von Design Thinking und praktische Einblicke in die Implementierung und Erprobung des IVA-Ökosystems. Die Ergebnisse der Implementierung an der Universidad del Azuay zeigen die Effektivität der vorgeschlagenen Architektur mit durchschnittlich 70 Benutzern pro Tag und 440 Chatbot-Nachrichten über verschiedene Kanäle hinweg. Der wichtigste Beitrag dieser Forschung ist die Entwicklung einer flexiblen Omnichannel-Middleware-Architektur, die eine effiziente Integration, das Einfügen und Ersetzen einzelner Komponenten ermöglicht, die von der Umwelt und der raschen technologischen Entwicklung benötigt werden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThere is a variety of research on intelligent virtual assistants (IVAs) and omnichannel, which is subject-specific. However, since people need assistance on multiple topics from their preferred channel at any time, it is crucial to integrate these concepts efficiently to provide a better user experience. This article proposes to build an omnichannel IVA that assists the user on multiple topics according to the environment through different digital channels, in various interaction formats such as chat, voice, and immersive, with software architecture that easily integrates different components of the IVA ecosystem. Its main contribution is to serve as a guide for architects and software developers who need to implement an IVA with flexible omnichannel middleware architecture, facilitating the integration of technologies, channels, and services, seeking to provide a unified service to its users.
-
-
Smart Cities and E-Government
-
Frontmatter
-
Smart Ecosystem to Assist Government Decisions in the Health Sector
María RomagnanoDieses Kapitel vertieft die Komplexität des Datenmanagements und der Interoperabilität im Gesundheitssektor und unterstreicht die Notwendigkeit eines intelligenten Ökosystems zur Unterstützung von Regierungsentscheidungen. Darin werden die Herausforderungen untersucht, vor denen Gesundheitssysteme stehen, darunter die Fragmentierung von Daten, das Fehlen standardisierter Protokolle und die Notwendigkeit einer effektiven Datenverwaltung. Das Kapitel schlägt ein konzeptionelles Modell für ein intelligentes Ökosystem vor, das Daten aus verschiedenen Quellen integriert und dabei Techniken der Business Intelligence (BI) und Business Analytics (BA) zur Unterstützung der Entscheidungsfindung einsetzt. Das Modell betont die Bedeutung von Datenqualität, Interoperabilität und den ethischen Gesichtspunkten im Datenmanagement. Das Kapitel diskutiert auch die Umsetzung dieses Modells, einschließlich der notwendigen Infrastruktur, Notfallpläne und Strategien zur Abmilderung von Datenverzerrungen. Anhand qualitativer Forschung und praktischer Beispiele bietet das Kapitel einen detaillierten Überblick über den aktuellen Stand des Gesundheitsdatenmanagements und eine Vision für ein stärker integriertes und effizienteres System.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn healthcare, data governance and knowledge management are essential. This complex, multifaceted, and multidisciplinary area involves healthcare professionals and agents from healthcare institutions managing large and diverse volumes of data generated from daily consultations and transactions. This data must be accessible quickly, at any time, and universally by all involved professionals. Furthermore, it is crucial to have the necessary mechanisms to relate, process, and convert this data into information or knowledge, which will subsequently inform decision-making.So far, some partial solutions have been implemented that address specific issues and involve a limited number of actors. Among these solutions, interoperability stands out as the ability of certain heterogeneous systems to share information automatically.For interoperation, several standards exist that facilitate the exchange of information and communication among various types of information systems with different objectives and characteristics. Globally, efforts are underway, and progress has been made on interoperability protocols between different health information systems. However, challenges persist during their implementation.Effective management of master data is necessary to eliminate confusion and disorganization. Proper interaction between health systems must be founded on an architecture that enables the capture, storage, management, transformation, access, and exchange of both data and information in a coordinated and consistent manner, utilizing interfaces based on existing standards.This paper presents an initial proposal of intelligent ecosystem that integrates data, information, and knowledge from multiple sources, along with visualization, analysis, and prediction tools, to support government health decisions and ensure continuity in patient care.
-
-
Visualization
-
Frontmatter
-
Optimization of Emergency Department Staff Configuration Using Montecarlo Clustering Search Algorithm and ABM Simulation
Maria Harita, Alvaro Wong, Dolores Rexachs, Emilio Luque, Eva Bruballa, Francisco EpeldeDieses Kapitel untersucht die Optimierung der Personalkonfigurationen in Notaufnahmen (ED) mithilfe einer Kombination aus dem Montecarlo Clustering Search Algorithm (MCSA) und der Simulation agentenbasierter Modellierung (ABM). Die Studie zielt darauf ab, die Verweildauer der Patienten durch effiziente Personal- und Ressourcenallokation zu verbessern. Die Forschung integriert heuristische Suchmethoden mit detaillierten Simulationsmodellen zur Bewertung verschiedener Personalkonfigurationen, wobei der Schwerpunkt auf der Reduzierung von Rechenkosten und der Verbesserung von Entscheidungsprozessen liegt. Die Methodik umfasst zwei Hauptphasen: Exploration und Ausbeutung. Während der Explorationsphase werden durch Stichproben erste Personalkonfigurationen generiert, die dann mit dem ABM-Simulationsmodell ausgewertet werden. Die Ausbeutungsphase verfeinert diese Konfigurationen durch Clustertechniken und identifiziert Lösungen mit hohem Potenzial. Die Studie zeigt, dass MCSA effektiv durch hochdimensionale Suchräume navigieren kann, indem es sich auf optimale Personalkonfigurationen einlässt, die das Patienten-LoS signifikant reduzieren. Die Ergebnisse unterstreichen die Bedeutung einer anpassungsfähigen Personalplanung und Ressourcenallokation beim Management von ED-Operationen. Durch die Nutzung von Hochleistungsrechnern und hybriden Optimierungsansätzen bietet die Studie Krankenhausverwaltern ein skalierbares und flexibles Werkzeug zur Entscheidungsunterstützung. Die Ergebnisse tragen dazu bei, die Lücke zwischen theoretischen Optimierungsmodellen und praktischem Gesundheitsmanagement zu schließen und bieten Einblicke in effiziente ED-Ressourcenallokation und Personalplanung.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractEmergency Departments (EDs) are critical yet complex areas in healthcare, where optimizing staff configurations is essential to reduce patient waiting times and improve efficiency. This study presents a methodology that combines Agent-Based Simulation (ABS) with the Montecarlo Clustering Search Algorithm (MCSA) to address the combinatorial challenge of allocating medical staff—doctors, nurses, and technicians—based on patient arrival patterns and acuity levels. The optimization process is guided by Key Performance Indicators (KPIs), particularly patient Length of Stay (LoS), ensuring staff allocations align with real-time demand without affecting resources in other hospital areas. The integrated approach enables realistic modeling of ED operations while efficiently exploring large solution spaces. Unlike exhaustive methods, MCSA significantly reduces computational time, making it suitable for practical implementation in healthcare settings. The results show that the proposed framework can effectively identify staff configurations that enhance ED performance and support scalable, data-driven decision-making. This contributes to improved patient outcomes and operational balance in high-pressure environments. -
How to Evolve from Problem to Agent-Based Simulator
Francisco Mesas, Manel Taboada, Dolores Rexachs, Francisco Epelde, Alvaro Wong, Emilio LuqueIn diesem Kapitel wird eine bahnbrechende Methodik zur Umwandlung komplexer Probleme in agentenbasierte Simulatoren vorgestellt, wobei der Schwerpunkt auf Modularität und Wiederverwendbarkeit liegt. Der Text geht auf die Herausforderungen traditioneller Simulationsmethoden ein und präsentiert einen strukturierten Ansatz zur Definition von Akteuren, Interaktionen und Entscheidungsprozessen. Zu den Schlüsselthemen gehören die Identifizierung von Agenten und ihren Zustandsvariablen, das Umfeld, in dem sie operieren, und die Interaktionen zwischen verschiedenen Agenten. Die Methodik wird anhand eines praktischen Beispiels in einer Notaufnahme demonstriert, in dem gezeigt wird, wie die Umgebung, die Agenten und ihre Interaktionen definiert werden können. Das Kapitel skizziert auch eine Validierungsstrategie, um die Genauigkeit und Reproduzierbarkeit der Simulationsmodelle sicherzustellen. Durch Befolgung dieser Methodik können Fachleute anpassungsfähigere und effizientere Simulationen erstellen und damit letztlich ihre Fähigkeit verbessern, komplexe Systeme zu analysieren und zu verwalten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis paper presents a structured methodology for the development of agent-based modeling and simulation (ABMS) systems, aimed at improving modularity and reusability in complex system representations such as Lego® pieces. The methodology addresses the challenge of translating real-world problems into executable ABMS models by defining standardized tables for key model components: environment, agents, interactions, and decision logic. Each element is described using modular structures that facilitate both conceptual validation (by domain experts) and computational validation (through simulation testing). A case study focused on a simplified hospital Emergency Department (ED) illustrates the practical application of this framework, showcasing how agent behaviors and system dynamics can be clearly represented and adapted. The approach emphasizes reusability and automation potential, bridging the gap between conceptual design and code-level implementation.
-
-
Emerging Topics
-
Frontmatter
-
Data Strategy for Competitiveness in Smart Territories
Fabiola del Toro Osorio, Victoria Eugenia Ospina Becerra, Elsa EstévezDieses Kapitel geht der entscheidenden Rolle der Datenstrategie bei der Förderung der Wettbewerbsfähigkeit in intelligenten Gebieten nach. Es unterstreicht die Bedeutung des Verständnisses der Bedürfnisse der Bürger und der Nutzung von Daten, um maßgeschneiderte Dienstleistungen zu schaffen, die das Wirtschaftswachstum vorantreiben und die Lebensqualität verbessern. Die Forschung führt ein umfassendes Rahmenwerk ein, die Data Strategy Competitiveness for Smart Territories, die Artefakte und Richtlinien in drei Phasen organisiert: Wissen, Planen und Eigen. Die Know-how-Phase konzentriert sich darauf, die Bedürfnisse der Bürger zu ermitteln, aktuelle Daten zu bewerten und den aktuellen Stand der Datenverwaltung zu verstehen. Die Planungsphase umfasst die strategische Formulierung, Planung von Datendiensten und die Entwicklung von Datenmanagement- und Governance-Strategien. Die Eigene Phase gewährleistet die Mobilisierung der Gemeinschaft und die Umsetzung des festgelegten Plans. Das Rahmenwerk wurde durch eine Fallstudie in Puerto Salgar, Kolumbien, validiert, in der drei Datendienste vorgeschlagen und ein Smart Economy Meeting Point eingerichtet wurden. Die Studie schließt mit der Betonung der Bedeutung der Integration intelligenter Städte, Datenstrategie und Wettbewerbsfähigkeit und bietet praktische Empfehlungen zur Verbesserung der territorialen Wettbewerbsfähigkeit durch datengesteuerte Dienstleistungen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractUtilizing data to foster competitiveness is a crucial and challenging task for cities and territories. This paper presents the results of our research, which aimed to answer the following two questions: Which artifacts drive the competitiveness of innovative territories? How can we obtain the greatest value from data to reinforce competitiveness in smart territories? Based on previous research, we propose a methodology for developing a data strategy as part of smart territories’ efforts. We validate our approach through the application of the methodology in Puerto Salgar, Cundinamarca, Colombia. This paper presents the development of the proposed solution, and the results and lessons learnt from the validation. Our contribution is the design of practical artifacts to enhance the competitiveness of smart territories based on data usage, organized into a component named Data Strategy for Smart Territories’ Competitiveness, as well as the process that demonstrates local stakeholders’ appropriation of key knowledge areas.
-
-
Innovation in Computer Science Education
-
Frontmatter
-
Design of an Scent-Emitting Device and Its Integration into an Immersive Virtual Reality Game
Julián Santiago Benítez, María José Abásolo, Roberto Ariel GuerreroDieses Kapitel befasst sich mit dem Design und der Entwicklung eines kostengünstigen, tragbaren Duftgeräts, das darauf abzielt, das Eintauchen in Virtual-Reality-Spiele (VR) zu verbessern. Das Gerät ist in das Proof-of-Concept-VR-Spiel "John Lemon's Haunted Jaunt" integriert, um sein Potenzial zur Bereicherung des Spielerlebnisses durch olfaktorische Reize zu demonstrieren. Das Kapitel beginnt mit einer Bestandsaufnahme bestehender Geruchsemissionsgeräte und beleuchtet deren Eigenschaften und Grenzen. Anschließend wird das Design und die Entwicklung des vorgeschlagenen Geräts, einschließlich seiner Komponenten, des Kommunikationsprotokolls und der Integration in das VR-Spiel detailliert beschrieben. Das Gerät wird durch Benutzertests bewertet, wobei sowohl subjektive als auch objektive Ergebnisse gemessen werden. Die Ergebnisse deuten darauf hin, dass die Integration der Geruchswahrnehmung das Eintauchen des Spielers deutlich erhöht, aber sorgfältiges Timing und eine sorgfältige Geruchswahl erfordert, um Ablenkung oder Ermüdung zu vermeiden. Das Kapitel schließt mit einer Diskussion über die zukünftige Richtung zur Maximierung des Potenzials des Duftstoffemittierenden Geräts, wobei zentrale technische Herausforderungen wie Miniaturisierung, Optimierung der Duftdiffusion und die Entwicklung einer robusten API angesprochen werden. Darüber hinaus untersucht das Kapitel die umfassenderen Implikationen der Integration olfaktorischer Reize in VR, einschließlich ihrer potenziellen Anwendungen in der beruflichen Bildung, in Bildungssimulationen und sensorischem Marketing.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn the context of the growing interest in multisensory experiences in the metaverse, this paper addresses the integration of the sense of smell in Virtual Reality environments as a tool to increase immersion, enrich the narrative and enhance users emotions. The proposal focuses on the design of an affordable and accessible scent-emitting device that can be easily integrated into various Virtual Reality applications or games.The article includes a comparative analysis of similar devices available on the market, highlighting common limitations such as high cost, lack of adaptability and the use of disposable components. Based on these observations, key requirements for the new design are established: comfort of use, cross-platform compatibility, reusable scent capsules, and a generic communication protocol. These features seek to maximize the user experience while reducing costs and improving the sustainability of the device.This project demonstrates the potential of olfaction as a key sense in the development of immersive experiences and lays the groundwork for future research in this emerging field.
-
-
Correction to: Smart Ecosystem to Assist Government Decisions in the Health Sector
María RomagnanoDiese Mitteilung korrigiert einen Fehler in der Urheberschaft eines Kapitels mit dem Titel "Smart Ecosystem to Assist Government Decisions in the Health Sector" aus dem Buch "Cloud Computing, Big Data and Emerging Topics". Das Kapitel wurde ursprünglich mit "Margarita Sordo" als Verfasserin veröffentlicht, aber diese Zuschreibung wurde seitdem in der veröffentlichten Version entfernt. Die Korrektur stellt genaue Autoreninformationen für das Kapitel sicher, das Teil einer breiteren Diskussion über Cloud Computing, Big Data und aufstrebende Themen ist. Diese Bekanntmachung ist für die Aufrechterhaltung der Integrität und Genauigkeit akademischer und professioneller Veröffentlichungen von entscheidender Bedeutung.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
-
Backmatter
- Titel
- Cloud Computing, Big Data and Emerging Topics
- Herausgegeben von
-
Marcelo Naiouf
Laura De Giusti
Franco Chichizola
Leandro Libutti
- Copyright-Jahr
- 2026
- Verlag
- Springer Nature Switzerland
- Electronic ISBN
- 978-3-032-06336-6
- Print ISBN
- 978-3-032-06335-9
- DOI
- https://doi.org/10.1007/978-3-032-06336-6
Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.