Special Topics in Information Technology
- Open Access
- 2026
- Open Access
- Buch
- Herausgegeben von
- Cinzia Cappiello
- Verlag
- Springer Nature Switzerland
Über dieses Buch
Über dieses Buch
This open access book presents outstanding doctoral dissertations in Information Technology from the Department of Electronics, Information, and Bioengineering, Politecnico di Milano, Italy. Information technology has always been highly interdisciplinary, as many aspects have to be considered in IT systems.
The doctoral studies program in IT at Politecnico di Milano emphasizes this interdisciplinary nature, which is becoming more and more important in recent technological advances, in collaborative projects, and in the education of young researchers.
Accordingly, the focus of advanced research is on pursuing a rigorous approach to specific research topics starting from a broad background in various areas of information technology, especially computer science and engineering, electronics, systems and control, and telecommunications.
Each year, more than 50 Ph.Ds. graduate from the program. This book gathers the outcomes of the best theses defended in 2024–25 and selected for the IT Ph.D. award. Each of the authors provides a chapter summarizing his/her findings, including an introduction, description of methods, main achievements, and future work on the topic. Hence, the book provides a cutting-edge overview of the latest research trends in information technology at Politecnico di Milano, presented in an easy-to-read format that will also appeal to non-specialists.
Inhaltsverzeichnis
-
Computer Science and Engineering
-
Frontmatter
-
Machine Learning in Oncogenomics: A Key to Dissecting Cancer Inner Heterogeneity
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel befasst sich mit der transformativen Rolle des maschinellen Lernens in der Onkogenomik, wo Hochdurchsatz-Sequenzdaten auf fortgeschrittene Computertechniken treffen, um die innere Heterogenität von Krebs zu sezieren. Zunächst werden die Herausforderungen und Chancen skizziert, die sich aus der Kombination von Wirtschaftsdaten mit maschinellem Lernen ergeben, wobei die Notwendigkeit robuster, reproduzierbarer Arbeitsabläufe betont wird, die die klinische Validierung integrieren. Ein zentraler Schwerpunkt liegt auf der Patientenstratifizierung, wo das Kapitel ReRa vorstellt, eine innovative Methode zur Auswahl von Merkmalen, die unausgewogene Klassifizierungsaufgaben bewältigt und klassenspezifische molekulare Merkmale aufdeckt, die für die Typisierung von Krebserkrankungen entscheidend sind. Die Diskussion verlagert sich dann auf die Mehrmarkensubtypisierung, einen bahnbrechenden Ansatz, der über die herkömmliche Einmarkenklassifizierung hinausgeht, um die nebeneinander existierenden molekularen Zustände innerhalb von Tumoren zu erfassen. Sie werden maßgeschneiderte Strategien wie den ML 2 CRIS-Prädiktor und den MULTI-STAR-Workflow erforschen, die Patienten mit Dickdarm- und Brustkrebs multimarkenübergreifende Zuweisungen ermöglichen, tiefere prognostische Einsichten liefern und therapeutische Entscheidungen verfeinern. Das Kapitel unterstreicht auch die Bedeutung von multiomischer Integration, mutationsbasiertem Feature Engineering und überwachten Rahmenwerken, um umsetzbare Gene und potenzielle therapeutische Ziele zu identifizieren. Durch die Beseitigung der Beschränkungen bestehender Methoden bietet diese Forschung ein umfassendes Toolkit für Fachleute, die darauf abzielen, maschinelles Lernen für die Präzisionsonkologie nutzbar zu machen und damit letztlich die Lücke zwischen Computeranalyse und klinischer Anwendung zu schließen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractComputational oncogenomics has a pivotal role to solve biological and clinical issues and support translational medicine in cancer research through computer science and bioinformatics methods. Leveraging advanced computational methods for comprehensive omics analysis is increasingly essential to deepen the understanding of tumor molecular complexity. The research activity outlined in this chapter emphasised the synergistic use of Data Science techniques and omics data processing to tackle clinical challenges of cancer diseases and face their inherent intricacy and heterogeneity. These often pose an insurmountable barrier to traditional research approaches; therefore, we designed and developed computational workflows that follow every step of a typical Data Science process while being enhanced and tailored for omics data, considering all their peculiarities and issues. Overall, this research delivered innovative computational frameworks contributing to unravelling cancer complexity, advancing personalized oncology, and paving the way for precision medicine through comprehensive, clinically driven omics analysis. -
Engaging People with Intellectual Disabilities in IoT Prototyping: Design Guidelines for Accessible Making Toolkits
- Open Access
PDF-Version jetzt herunterladenAbstractDespite the growing potential of Internet of Things (IoT) technologies to support autonomy and inclusion, individuals with intellectual disabilities (ID) remain largely excluded from the processes of ideating and personalizing these systems. Drawing on results of participatory design studies conducted with three different toolkits, this paper presents findings from a user-centered research involving people with ID in IoT ideation and making. The results are synthesized into a set of design guidelines for accessible toolkit development, with a focus on fostering understanding, agency, and engagement. Furthermore, results emphasize the value of hybrid tangible-digital interactions in addressing physical and cognitive challenges. This paper contributes to the growing body of research on accessible computing by providing empirical evidence and actionable guidelines to democratize access to complex technical domains. -
Multi-armed Bandits Algorithms for Pricing and Advertising
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel befasst sich mit der transformativen Kraft von Multi-Armed Bandits (MABs) -Algorithmen zur dynamischen Preisgestaltung und Optimierung des Werbebudgets und geht auf die entscheidende Herausforderung der Gewinnmaximierung auf Online-Märkten ein. Zunächst wird untersucht, wie traditionelle Preis- und Werbemodelle die Nuancen von Kundenbindung und Kampagneninteraktion nicht erfassen, dann werden drei innovative MAB-basierte Rahmenwerke vorgestellt, um diese Beschränkungen zu überwinden. Das erste Rahmenwerk, AutoRegressive Bandits (ARBs), modelliert zeitliche Abhängigkeiten bei der Preisgestaltung, indem es autoregressive Prozesse einbindet, um zwischen neuen und loyalen Kunden zu unterscheiden, was eine genauere Nachfrageprognose ermöglicht. Das zweite Rahmenwerk, Dynamical Linear Bandits (DLBs), nimmt die Komplexität der Online-Werbung in Angriff, indem es verzögerte und kumulative Effekte von Kampagnen berücksichtigt und sicherstellt, dass die Mittelzuweisung mit langfristigen Konversionszielen im Einklang steht. Schließlich stellt das Kapitel Factored Reward Bandits (FRBs) vor, einen einheitlichen Ansatz zur gemeinsamen Optimierung von Preisen und Werbung, indem Einnahmen in ihre Bestandteile - Konversionsraten und Eindrücke - einbezogen werden, was eine effizientere und gezieltere Entscheidungsfindung ermöglicht. Jedes Rahmenwerk wird von einem maßgeschneiderten Algorithmus - AR-UCB, DynLin-UCB und F-UCB - begleitet, der darauf ausgelegt ist, Reue zu minimieren und gleichzeitig die Einnahmen zu maximieren, zusammen mit theoretischen Garantien und praktischen Einsichten in die Umsetzung. Durch die Überbrückung der Kluft zwischen theoretischer Innovation und realer Anwendbarkeit stattet diese Arbeit Fachleute mit den Werkzeugen aus, um die dynamische Landschaft digitaler Märkte mit Präzision und Anpassungsfähigkeit zu navigieren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractNowadays, when it comes to selling a product online, two of the most significant factors are the pricing strategy and the investments in advertising. When determining the price of a product, it is essential to strike a balance. The price should neither be set too low, as this would result in a reduced revenue, nor too high, as it may deter potential buyers. The amount of money we invest in advertising should be balanced to let people know our offer without overspending. These two aspects are usually handled disjointedly by humans, but this may lead to suboptimal solutions. In this work, we focus on the adoption of online learning algorithms to solve the task of finding the optimal price for a product and understand how to advertise it properly. We face various aspects of pricing and advertising, offering theoretical frameworks to address the associated challenges. We start discussing pricing methods, with emphasis on the problem of learning in the presence of temporal dynamics. Then, we discuss the theoretical aspects of advertising, with a particular focus on marketing mix models. Finally, we bring together the problems of pricing and advertising, presenting a unified view. -
Advances on Multi-fidelity Learning
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel taucht ein in das transformative Potenzial des Multifidelity Learning für sequenzielle Entscheidungsprobleme, bei dem Akteure Leistung mit Recheneffizienz in Einklang bringen müssen. Es beginnt mit der Erforschung einer Variante des Best-Arm-Identifizierungsproblems (BAI), einer klassischen Herausforderung im Bereich der Verstärkung von Lern- und Banditenalgorithmen. Hier verlagert sich der Fokus darauf, den optimalen Arm nicht nur präzise, sondern mit minimalen Kosten zu identifizieren, indem man billigere, weniger treue Datenquellen strategisch nutzt. Der Text stellt zwei neue Algorithmen vor - Iterative und Imprecise Successive Elimination (IISE) und Multi-Fidelity Sub-Gradient Ascent (MF-GRAD) -, die nicht nur theoretischen Untergrenzen entsprechen, sondern auch praktische Wege bieten, um die Probenkosten in realen Anwendungen wie Physik-Simulationen zu senken. Jenseits von Banditen untersucht das Kapitel dann Monte Carlo Reinforcement Learning, wo es eine versteckte Multifidelitätsstruktur in der bahnbasierten Schätzung aufdeckt. Durch Abkürzen der Flugbahnen, um weniger informative, aber kostengünstigere Daten zu sammeln, reduzieren die vorgeschlagenen Methoden den Rechenaufwand erheblich und behalten gleichzeitig ihre Genauigkeit bei. Das Ergebnis sind zwei bahnbrechende Ansätze, die unsere Vorstellungen von Effizienz in der KI-gestützten Entscheidungsfindung neu definieren und sowohl theoretische Strenge als auch umsetzbare Strategien für Branchen bieten, die sich mit hochriskanten, ressourcenintensiven Problemen auseinandersetzen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractSequential decision-making problems are a major area of research in AI due to their wide applicability. In these problems, an agent interacts with an environment over time to achieve a certain goal, with the key challenge that each decision will influence future options and outcomes. While techniques like bandit algorithms and reinforcement learning have shown strong performance in several domains, they often require a large number of interactions with the environment to achieve satisfactory performance. In many real-world settings, however, imprecise but cheaper data (e.g., interactions generated by using a low-fidelity model of the environment) can be exploited to make the training process more efficient. This has led to growing interest in multi-fidelity learning, which seeks to improve training efficiency by combining high- and low-fidelity data. This work presents theoretically grounded methods for exploiting multi-fidelity data in general learning scenarios.
-
-
Electronics
-
Frontmatter
-
Exploring the Future of Navigation: High TRL Piezoresistive MEMS Gyroscopes
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel untersucht das transformative Potenzial piezoresistiver Kreisel von M & NEMS (Micro & Nano-Elektromechanische Systeme) und zeigt ihre Fähigkeit, die strengen Anforderungen navigierfähiger Anwendungen zu erfüllen. Der Text beginnt mit der Kontextualisierung des raschen Wachstums der MEMS-Industrie und der zentralen Rolle von Inertialsensoren in Verbraucher-, Automobil- und Industriesektoren. Es beleuchtet die Grenzen traditioneller kapazitiver MEMS-Gyroskope zum Auslesen und führt M & NEMS-Technologie als bahnbrechende Alternative ein, die piezoresistives Abtasten für verbesserte Leistung nutzt. Ein zentraler Schwerpunkt ist die thermische Charakterisierung von M & NEMS-Gyroskopen, die eine bemerkenswerte 10-fache Verbesserung der thermischen Drift der Nullrate (Zero-Rate Output, ZRO) im Vergleich zu unkalibrierten kommerziellen Geräten aufweist, während die Empfindlichkeitsstabilität auf dem Niveau von High-End-kalibrierten Systemen gehalten wird. Das Kapitel untersucht dann Bemühungen, das Technology Readiness Level (TRL) von M & NEMS-Gyroskopen zu erhöhen, und beschreibt das Design und die Implementierung einer rauscharmen integrierten Schaltung (IC) und eines volldigitalen vorindustriellen Demonstrators. Diese Fortschritte werden durch rigorose Tests bestätigt, die außergewöhnliche Leistungskennzahlen wie Linearitätsfehler von nur 0,01% über den gesamten Skalenbereich und Allan-Standardabweichungen von 0,01 ° / √ h zeigen, wobei die Standardabweichung beim Ein- und Ausschalten über 50 Leistungszyklen bei 0,001 ° / h liegt. Der Text stellt außerdem eine vollständig integrierte ASIC-Lösung vor, die sich den Herausforderungen bei der Quadratur-Kompensation und Demodulation widmet, und skizziert zukünftige Arbeiten zur Erreichung eines monolithischen 3-Achsen-Kreisels taktischer Güte. Durch die Präsentation einer jahrzehntelangen Zusammenarbeit zwischen CEA-Leti und Politecnico di Milano unterstreicht das Kapitel den Übergang der M & NEMS-Technologie vom Labor zur Industrie und ebnet den Weg für Navigationssysteme der nächsten Generation.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn the last two decades navigation applications, currently based on fiber optic and hemispherical resonator gyroscopes, have been leading the MEMS gyroscopes market and research, as they could greatly benefit from the inherent low area occupation, power consumption and cost. This manuscript discusses the efforts to enhance the performance of amplitude modulated mode-split piezoresistive gyroscopes to cope with the requirements of inertial navigation applications. The work starts from a temperature characterization of the sensors, as in the considered scenario environmental conditions usually play a large role. Then, near navigation-grade performance are demonstrated by coupling the gyroscope with a custom designed low-noise integrated circuit, implementing the drive loop, automatic gain control loop and an open-loop sense chain, while digitization, demodulation and data transfer are performed by an off-the-shelf lock-in amplifier. Afterwards, in order to allow a full market compliant validation of the sensors, a pre-industrial compact and stand-alone FPGA-based demonstrator has been developed to extend the technology readiness level, providing consistent results with higher fidelity. Further miniaturization is sought through a second generation of the integrated circuit that adds the demodulation and automatic quadrature compensation stages. -
Updates and New Developments of the DAQ Firmware and Hardware for the EuXFEL’s DSSC Camera
- Open Access
PDF-Version jetzt herunterladenIn diesem Kapitel werden die neuesten Aktualisierungen und Innovationen bei der Firmware und Hardware der DSSC-Kamera untersucht, eines speziellen Detektors, der für weiche Röntgenaufnahmen in der EuXFEL-Anlage entwickelt wurde. Es beginnt mit der Einführung des DEPFET-Sensors mit Signalkomprimierung (DSSC), der seine einzigartige nichtlineare Reaktion und seine rauscharmen Eigenschaften hervorhebt, die einen hohen Dynamikbereich und eine hohe Verstärkung bei der Erkennung niedriger Signale ermöglichen. Anschließend beschreibt der Text die Architektur der DSSC-Kamera, einschließlich ASIC-Auslesesystem, Leitermodule und Quadrantenkonfigurationen, wobei die Rolle des Patch Panel Transceiver (PPT) und des I / O Boards (IOB) bei der Verwaltung des Datenflusses und der Sensorsteuerung hervorgehoben wird. Ein zentraler Schwerpunkt ist das Redesign des IOB-Moduls, um aktuelle Hardware-Beschränkungen wie Komponentenengpässe und betriebliche Ineffizienzen zu überwinden. Zu den vorgeschlagenen Aktualisierungen gehören die Integration von DDR-Speicher und eines leistungsstärkeren FPGA (Artix UltraScale + AU15P), die Echtzeit-Kalibrierung, Rebinning und fortschrittliche Datenverarbeitung direkt innerhalb des Datenerfassungssystems ermöglichen. Das Kapitel befasst sich auch mit Herausforderungen beim Stromverbrauch und der Abwärtskompatibilität, wodurch eine nahtlose Integration in bestehende DSSC-Setups gewährleistet wird. Darüber hinaus wird die zukünftige Skalierbarkeit des Systems diskutiert, einschließlich des Potenzials zur Erweiterung auf 4 MPixel-Detektoren und der damit verbundenen Erhöhung der Datenrate. Durch die Behebung von Timing-Fehlausrichtungen, die Verbesserung der Signalgenerierung und die Vereinfachung der Detektorintegration mit Funktionen wie einem DHCP-Server verbessern die Aktualisierungen die Abbildungsleistung und Benutzerfreundlichkeit der DSSC-Kamera erheblich. Die Analyse schließt mit einem Vergleich verschiedener IOB-Konfigurationen ab, in dem deren Hardwareanforderungen, Stromverbrauch und Verarbeitungskapazitäten abgewogen werden, um die optimale Lösung sowohl für unmittelbare Bedürfnisse als auch für langfristige Fortschritte zu finden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractAt the European X-ray Free Electron Laser (EuXFEL) in Hamburg, the DEPFET Sensor with Signal Compression (DSSC) project has built a megapixel X-ray camera that records images at 4.5 MHz, generating up to 134 Gbit/s. Its two-stage data-acquisition (DAQ) chain-16 Spartan-6 FPGA boards followed by four Kintex-7 boards—cannot satisfy future needs. Our work modernises this DAQ to future-proof the camera, simplify read-out, and boost performance. We began by analysing and refactoring the firmware and custom Linux build, eliminating faults, adding features, and improving robustness and ease of use. In parallel we evaluated replacement technologies, mindful that the current FPGAs are nearing end-of-life. Xilinx’s UltraScale+ family emerged as the optimal platform, offering higher clock rates, larger logic and memory pools, and multi-gigabit transceivers with superior energy efficiency. A rigorous comparison of candidate UltraScale+ devices considered area, power, and timing. The selected chips provide ample resources for existing algorithms while opening headroom for future upgrades to the DSSC camera and other EuXFEL instruments. Deploying them will merge today’s two DAQ stages into a simpler, faster, and more scalable architecture that sustains the 134 Gbit/s stream and beyond.
-
-
Systems and Control
-
Frontmatter
-
Meta-Learning for Data-Driven Control System Design: Theory and Applications
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel untersucht, wie Meta-Learning und In-Context-Lernen datengesteuerte Steuerungssysteme verändern, indem sie Ähnlichkeiten zwischen verwandten Anlagen ausnutzen, um die Steuerung zu beschleunigen und die manuelle Modellauswahl zu beseitigen. Es stellt zwei einander ergänzende Ansätze vor: Meta-DDC und Meta-AutoDDC, die zuvor abgestimmte Controller wiederverwenden und Referenzmodelle automatisch kalibrieren, um den experimentellen Aufwand zu verringern und die Robustheit zu verbessern. Meta-DDC konstruiert neue Controller als konvexe Kombinationen früherer Designs und nutzt dabei Ähnlichkeitskennzahlen, um auch bei unterschiedlichen Pflanzen eine nicht nachlassende Leistung und Stabilität zu gewährleisten. Meta-AutoDDC automatisiert die Auswahl von Referenzmodellen weiter und adressiert damit eine langjährige Beschränkung traditioneller Methoden wie VRFT, die häufig Trial-and-Error-Tuning erfordern und zu Instabilität oder suboptimaler Leistung führen können. Das Kapitel vertieft sich auch in das Lernen im Kontext, bei dem Transformer-basierte kontextabhängige Controller und Schätzer sich von Input-Output-Pfaden ohne Umschulung spontan anpassen, was Zero-Shot-Regulierung und Zustandseinschätzung für unsichtbare Systeme innerhalb einer definierten Klasse ermöglicht. Experimentelle Validierungen an BLDC-Motoren und nichtlinearen Prozess-Benchmarks zeigen, dass diese Methoden eine Leistung erreichen, die mit der modernster Techniken wie SMGO vergleichbar oder besser ist, während sie deutlich weniger Daten und Benutzereingriffe erfordern. Die Ergebnisse unterstreichen das Potenzial dieser Ansätze für einen Paradigmenwechsel von der Entwicklung individueller Steuerungen für jede Anlage zur Schulung eines einzigen Modells für eine ganze Systemklasse, was den Weg für den Plug-and-Play-Einsatz in industriellen Anwendungen ebnet. Darüber hinaus werden in diesem Kapitel die theoretischen Garantien diskutiert, die diesen Methoden zugrunde liegen, darunter Stabilität und begrenzte Verlusteigenschaften, und zukünftige Forschungsrichtungen zur Ausweitung dieser Techniken auf umfassendere Kontrollprobleme und hybride Strategien skizziert, die Meta-Learning mit modellbasierten Ansätzen kombinieren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis Brief shows how similarity across dynamical systems can accelerate data-driven controller and estimator design. Classical data-driven control (DDC) methods avoid explicit modeling but remain plant-specific and require costly re-tuning whenever operating conditions change. We propose two complementary strategies that exploit prior designs and perturbed training classes. First, Meta-DDC reuses controllers tuned on similar systems, and its extension Meta-AutoDDC automates the selection of the reference model. Together they guarantee non-deteriorating performance and improved robustness when designing controllers for unseen but related plants [4, 7]. Second, in-context learning with transformer architectures produces contextual controllers and estimators, trained on perturbed simulations to generalize across entire classes of nonlinear systems without re-training [5]. Experiments on brushless motors and nonlinear process benchmarks confirm faster design, reduced data requirements, and improved robustness. We conclude with perspectives on scalable, similarity-aware control design. -
Sparse Soft Decision Trees and Kernel Logistic Regression: Optimization Models and Algorithms
- Open Access
PDF-Version jetzt herunterladenTauchen Sie ein in die Welt des interpretierbaren maschinellen Lernens mit diesem Kapitel, das bahnbrechende Optimierungsmodelle und Algorithmen für weiche Entscheidungsbäume und logistische Regression im Kernel einführt. Der Schwerpunkt liegt auf der Spärlichkeit - sowohl bei der Auswahl der Merkmale als auch bei der Modellstruktur -, um die Interpretationsfähigkeit zu verbessern, ohne dabei die Vorhersagegenauigkeit zu opfern. Sie werden erforschen, wie weiche Entscheidungsbäume mit ihrem probabilistischen Routing eine flexible und transparente Alternative zu herkömmlichen Hard Splits darstellen, während die logistische Regression des Kernels von einer sparsity-induzierenden Regulierung profitiert, um die Effizienz zu steigern. Das Kapitel geht auf neuartige Formulierungen für Klassifikations- und Regressionsaufgaben ein und präsentiert Zersetzungsalgorithmen, die große Datensätze mit Leichtigkeit bewältigen. Zu den wichtigsten Highlights zählen ein neues weiches Regressionsbaummodell, das bedingte Berechnung, verbesserte Schlüsselleistung und statistische Robustheit bietet, und ein Ansatz zur logistischen Regression mit wenig Kernen, der ein überlegenes Gleichgewicht zwischen Genauigkeit und Knappheit erreicht. Theoretische Erkenntnisse, wie universelle Approximationseigenschaften für weiche Regressionsbäume, werden mit empirischen Beweisen aus Benchmark-Datensätzen gepaart, die eine überlegene Leistung gegenüber modernen Methoden zeigen. Egal, ob Sie sich für mathematische Grundlagen oder praktische Implementierungen interessieren, dieses Kapitel stattet Sie mit den Werkzeugen aus, um maschinelle Lernmodelle zu erstellen, die nicht nur leistungsstark, sondern auch rechenschaftspflichtig und interpretierbar sind.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractMachine learning models have achieved remarkable results across domains such as healthcare, finance, and natural language processing. However, their adoption in sensitive applications often requires interpretable models, where sparsity can enhance both interpretability and generalization. We investigate and improve soft decision trees for classification and regression, which are interpretable models, and kernel logistic regression for binary classification. Contributions include new model variants, sparsification methods, theoretical properties, and decomposition-based training algorithms. For soft classification trees, we propose \(\ell _0\)-based sparsification methods that are more effective in promoting both local and global sparsity compared to the previously proposed \(\ell _1\) and \(\ell _\infty \) regularizations. For soft regression trees, we present a model variant where, for each input vector, the prediction is given by the linear regression associated with a single leaf node. We design a nonlinear optimization formulation amenable to decomposition and develop a convergent node-based algorithm that includes a heuristic for rerouting input vectors. Concerning kernel logistic regression, we develop a sparsity-inducing formulation for binary classification and design a convergent second-order sequential minimal optimization algorithm that achieves a good balance between sparsity and accuracy, while maintaining informative probabilistic outputs. -
Prosumer Decision-Making in a Carbon-Neutral Society
- Open Access
PDF-Version jetzt herunterladenDiese Dissertation untersucht, wie Haushalte von passiven Energieverbrauchern zu aktiven Prosumenten in einer CO2-neutralen Gesellschaft werden, wobei der Schwerpunkt auf ihrer Bereitschaft liegt, an Programmen zur Nachfrageregelung (DR) teilzunehmen. Es kombiniert Umfragedaten von 1.468 finnischen Haushalten mit fortschrittlichen Modellierungstechniken - einschließlich agentenbasierter Simulationen und mathematischer Optimierung -, um die sozioökonomischen und verhaltensbezogenen Treiber hinter der DR-Anmeldung aufzudecken. Die Forschungsergebnisse quantifizieren den finanziellen und ökologischen Nutzen von DR und zeigen, dass dynamische Strategien Haushalte bis zu 250 Euro jährlich einsparen oder die CO ₂ -Emissionen um 100 kg pro Jahr reduzieren können. Sie identifiziert drei unterschiedliche Verbrauchergruppen - Adopter, Anhänger und Neutrale - jede mit einzigartigen Motivationen und sozioökonomischen Profilen, was die Notwendigkeit maßgeschneiderter DR-Programme unterstreicht. Die Studie bewertet auch die Bereitschaft der Haushalte, unterschiedliche flexible Lasten wie Elektrofahrzeuge und Wärmepumpen in Anspruch zu nehmen, und zeigt, dass finanzielle Anreize der primäre Motivator sind, obwohl auch sozialer Einfluss und Umweltbelange eine wichtige Rolle spielen. Ein zentrales Ergebnis ist die dramatische Zunahme der DR-Beteiligung während der Energiekrise 2022, als die Bereitschaft zur Lastverlagerung von 60% auf 80% stieg, was zeigt, wie externe Schocks das Engagement der Verbraucher mobilisieren können. Die Forschung entwickelt ein agentenbasiertes Modell zur Simulation der Einschulungsmuster im Laufe der Zeit weiter und zeigt, wie Vertragsflexibilität, saisonale Faktoren und soziale Dynamik die Adoptionstrends beeinflussen. Schließlich schlägt sie Preisstrategien für Aggregatoren vor, um Anreize zur Lastverlagerung zu schaffen und dabei Rentabilität und Verbraucherwohlfahrt in Einklang zu bringen, und bietet eine Roadmap für die Skalierung der Flexibilität von Haushalten auf zukünftigen Energiemärkten. Für Fachleute, die effektive DR-Programme konzipieren oder die Verhaltensgrundlagen der Prosumer-Teilnahme verstehen wollen, bietet diese Arbeit eine rigorose, evidenzbasierte Grundlage.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe increasing adoption of rooftop photovoltaic (PV) systems, electric vehicles (EVs), and electric heating positions the residential sector as a key provider of demand-side flexibility to support a sustainable energy transition. Demand response (DR) enables households to adjust electricity use to help balance the grid, but effective implementation relies on understanding how consumers decide to participate. This doctoral dissertation investigates residential consumers’ decision-making regarding DR enrollment. The research identifies motivators across different socioeconomic groups, quantifies willingness to provide flexible loads, examines variations among household types, and models decision-making behavior mathematically. A detailed survey of Finnish households was conducted to assess motivations and preferences. The findings informed the development of an agent-based model that simulates how enrollment evolves over time. The study also proposes a pricing strategy for aggregators to attract residential flexibility cost-effectively. Results highlight that motivators such as financial savings, environmental awareness, and convenience significantly influence participation, and that willingness varies by demographic factors. These insights support DR service providers, policymakers, and researchers in designing more effective DR programs. By linking behavioral factors with system-level flexibility goals, this work offers practical guidance to maximize residential DR participation, ultimately contributing to a more resilient and decarbonized energy system.
-
-
Telecommunications
-
Frontmatter
-
Cooperative Machine Learning Methods in Distributed Systems
- Open Access
PDF-Version jetzt herunterladenTauchen Sie ein in das transformative Potenzial kooperativen maschinellen Lernens in verteilten Systemen, in denen Multi-Agent-Netzwerke - von medizinischer Bildgebung bis hin zu autonomen Fahrzeugen - enorme Datenmengen erzeugen, die die Kapazität einzelner Prozessoren übersteigen. Dieses Kapitel enthüllt, wie graphenbewusste neuronale Nachrichtennetze (MPNNs) die Datenassoziation und kooperative Wahrnehmung revolutionieren, indem sie robuste Assoziationen und Zustandsübergänge direkt aus den Flugbahndaten lernen und traditionelle Algorithmen zur Nachrichtenweitergabe sowohl hinsichtlich Genauigkeit als auch Anpassungsfähigkeit übertreffen. Entdecken Sie die Leistungsfähigkeit föderierter und geteilter Lernrahmen, die darauf ausgelegt sind, sensible Daten zu schützen und gleichzeitig effizient über heterogene Geräte hinweg zu skalieren, selbst unter nicht unabhängigen und identisch verteilten (IID) Datenbedingungen. Entdecken Sie innovative Ansätze wie asynchrones föderiertes Lernen und serverloses konsensloses föderiertes Lernen, die in ressourcenbeschränkten Umgebungen Datenschutz, Energieeffizienz und Echtzeitleistung miteinander in Einklang bringen. Das Kapitel stellt auch innovative Techniken für kooperative Folgerungen vor, darunter einen Single-Shot-Anomaly-Detektor zur Identifizierung von Non-Line-of-Sight-Bedingungen (NLoS) in Mobilfunknetzen der nächsten Generation und ein probenfreies bayesianisches Rahmenwerk, das sowohl aleatorische als auch epistemische Unsicherheiten bei der Echtzeitverfolgung quantifiziert. Durch eine Mischung aus theoretischen Erkenntnissen und praktischen Implementierungen zeigt diese Arbeit, wie kooperatives maschinelles Lernen die Leistung von cyber-physischen Systemen auf ein nie dagewesenes Niveau heben kann, indem es Zentimetergenauigkeit und vertrauenswürdige Vertrauensgrenzen in dynamischen Szenarien der realen Welt erreicht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractCooperative machine learning is reshaping how multi-agent systems handle massive, distributed, and privacy-sensitive data streams. This chapter condenses my doctoral work on two fronts: learning, which builds shared models, and inference, which uses those models in real time. For learning, we propose graph-aware message-passing neural networks that surpass classical belief propagation in data association and joint positioning, fully decentralized federated and split schemes that protect privacy and save energy in medical and internet of things (IoT) settings, and a reinforcement framework that keeps localization accurate in highly dynamic vehicle swarms. For inference, we present a single-pass detector for instant non-line-of-sight recognition, a latent-feature fusion method that switches smoothly between standalone and cooperative static positioning, and a sampling-free Bayesian kernel that attaches trustworthy aleatoric and epistemic uncertainty to mobile tracking. Together, these contributions form a coherent toolbox that turns heterogeneous 5G/6G, robotic, and healthcare networks into reliable, low-latency cyber-physical systems. -
Data-Driven Techniques for Speech and Multimodal Deepfake Detection
- Open Access
PDF-Version jetzt herunterladenDieses Kapitel untersucht das sich rasch entwickelnde Gebiet der Deep Fake Detection, wobei der Schwerpunkt auf synthetischer Sprache und multimodalen Inhalten liegt. Sie führt einen dualen Ansatz ein, der niedrige Signalanalysen - wie Frequenzverteilung, kurzfristige langfristige Merkmale und Bicoherence - kombiniert, um technische Artefakte aufzudecken, die von generativen Modellen hinterlassen wurden, und hochrangige semantische Analysen, die auf Prosodie, Emotion und Lautsprecheridentität abzielen, die für künstliche Intelligenz schwieriger zu replizieren sind. Der Text geht auf praktische Herausforderungen wie die Verallgemeinerung unsichtbarer Daten, die mangelnde Interpretierbarkeit in Black-Box-Modellen und die Notwendigkeit einer Zuverlässigkeitsschätzung ein, um irreführende Ergebnisse zu vermeiden. Eine Schlüsselinnovation ist die Umstellung von monomodaler auf multimodale Erkennung, bei der audiovisuelle Widersprüche - insbesondere in der emotionalen Kohärenz - genutzt werden, um Tiefenfälschungen präziser zu erkennen. Das Kapitel befasst sich auch mit synthetischen Sprachzuweisungen und zeigt, wie Erkennungsmodelle umgewidmet werden können, um die spezifischen Erzeugungstechniken hinter Fälschungen zu identifizieren. Mit einem Schwerpunkt auf der Anwendbarkeit in der realen Welt werden Methoden zur Ausbildung multimodaler Detektoren anhand begrenzter markierter Daten hervorgehoben und die Bedeutung erklärbarer KI für das Verständnis und die Verbesserung der Erkennungsleistung betont. Das Ergebnis ist ein umfassender Rahmen für den Aufbau robuster, anpassungsfähiger forensischer Werkzeuge, die mit der zunehmenden Verfeinerung synthetischer Medien Schritt halten können.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractRecent advancements in deep learning and generative models have simplified the creation and manipulation of synthetic media. Today, even inexperienced users can produce highly realistic content with minimal effort. While these technologies offer exciting opportunities, they also pose serious risks. When misused, they can facilitate fraud, blackmail, and the spread of disinformation. An example of this phenomenon is deepfakes, synthetic multimedia content generated through deep learning techniques that depict individuals in actions and behaviors that do not belong to them. Using only a few images or an audio recording of a target victim, an attacker can utilize deepfake technology to produce synthetic data that impersonates the victim and discredits their reputation. Detecting such content is essential to prevent misuse. This chapter addresses the problem of deepfake detection, beginning with a monomodal focus on synthetic speech and then extending the analysis to audio-video multimodal deepfakes. We propose multiple detection methods and discuss broader solutions to related challenges. We view this work as a foundational but meaningful step forward in multimedia forensics. While the results are encouraging, the landscape is evolving rapidly, with emerging threats demanding continuous innovation. We believe our findings can support future research and help strengthen defenses against synthetic media misuse. -
Green, Resilient, and Secure Next-Generation Optical Networks
- Open Access
PDF-Version jetzt herunterladenTauchen Sie ein in die Zukunft optischer Netzwerke mit diesem Kapitel, das die drei Säulen der Konnektivität der nächsten Generation seziert: Energieeffizienz, Widerstandsfähigkeit und Sicherheit. Zunächst wird untersucht, wie eine kohärente ZR / ZR + -Übertragung und transparente Architekturen den Stromverbrauch in IP-over-WDM-Netzwerken drastisch senken können, wobei traditionelle Annahmen mit Modellen des realen Stromverbrauchs und Routing-Algorithmen in Frage gestellt werden. Die Diskussion erstreckt sich auf kosteneffektive Überwachungstechniken wie Power Profile Monitoring (PPM), die herkömmlichen OTDR-Systemen sowohl in Effizienz als auch Skalierbarkeit überlegen sind und einen Entwurf für den netzwerkweiten Einsatz bieten. Resilienz steht mit bahnbrechenden Strategien im Mittelpunkt, um Doppelverbindungsausfälle in virtuellen Netzwerken abzumildern und Techniken zur gemeinsamen Nutzung von Kapazitäten einzuführen, die schonende Ressourcen optimieren, ohne die Zuverlässigkeit zu opfern. Bei Szenarien mit massiven Unterbrechungen der Infrastruktur gewährleisten progressive Verfahren zur Wiederherstellung von Schnitten minimale Leistungsverschlechterungen und beschleunigen die Wiederherstellung. Schließlich geht das Kapitel auf die sich abzeichnende Bedrohung durch Quantencomputing mit Quantenschlüsselverteilung (QKD) und Verschränkungsrouting ein und präsentiert Algorithmen zur Ressourcenallokation, die Schlüsselraten, Treue und Netzwerkbeschränkungen ausbalancieren. Egal, ob Sie sich mit dem Energiebedarf von 6G-Netzwerken auseinandersetzen, katastrophenresistente Architekturen entwerfen oder Systeme gegen Quantenangriffe stärken: Dieses Kapitel liefert die Werkzeuge und Erkenntnisse zum Aufbau robuster, zukunftsfähiger optischer Netzwerke.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractOptical networks represent the essential backbone for various communication systems, such as long-haul, metro, data center networks, etc. As these networks face surging volumes of highly sensitive data, it is crucial for future optical networks to efficiently accommodate rising traffic demands as well as to be resilient against network failures and secure against attackers. We aim to design resource-allocation algorithms to improve the energy efficiency, resiliency, and security of future optical networks as follows: (1) Enhance energy efficiency using novel transmission technologies. We have first investigated how to reduce energy consumption using emerging ZR/ZR+ pluggable optics, and then we have quantified the cost and power consumption of a new monitoring technique, called power profile monitoring on a network scale. (2) Improve network resilience with proactive and reactive solutions. We have investigated proactive solutions for virtual network mapping against double-link failures and reactive solutions to provide swift network recovery for future optical networks under massive failures. (3) Enhance network security with quantum technologies. We have investigated novel resource allocation algorithms for QKD networks to improve resource efficiency. Besides, we have investigated entanglement routing problems for quantum networks, which are essential for quantum applications like QKD.
-
- Titel
- Special Topics in Information Technology
- Herausgegeben von
-
Cinzia Cappiello
- Copyright-Jahr
- 2026
- Verlag
- Springer Nature Switzerland
- Electronic ISBN
- 978-3-032-12359-6
- Print ISBN
- 978-3-032-12358-9
- DOI
- https://doi.org/10.1007/978-3-032-12359-6
Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.