Zum Inhalt

Machine Learning and Knowledge Discovery in Databases: Research Track

European Conference, ECML PKDD 2023, Turin, Italy, September 18–22, 2023, Proceedings, Part V

  • 2023
  • Buch

Über dieses Buch

Der mehrbändige Satz LNAI 14169 bis 14175 stellt die referierten Vorträge der Europäischen Konferenz über maschinelles Lernen und Wissensentdeckung in Datenbanken, ECML PKDD 2023, dar, die im September 2023 in Turin, Italien, stattfand. Die 196 Beiträge wurden aus 829 Einreichungen für den Research Track ausgewählt, und 58 Beiträge wurden aus 239 Einreichungen für den Applied Data Science Track ausgewählt. Die Bände sind in thematische Abschnitte gegliedert wie folgt: Teil I: Aktives Lernen; Adversarial Machine Learning; Anomalie-Erkennung; Anwendungen; Bayessche Methoden; Kausalität; Clustering.Teil II: Computervision; Deep Learning; Fairness; Föderated Learning; Few-Shot Learning; Generative Modelle; Graph Contrastive Learning.Teil III: Graph Neuronale Netze; Diagramme; Interpretierbarkeit; Wissensgrafiken; Large Scale Learning.Teil IV: Natural Language Processing; Neuro / Symbolic Learning; Optimierung; Empfehlungssysteme; Reinforcement Learning; Representation Learning.Teil V: Robustheit; Zeitreihen; Transfer und Multitask Learning.Teil VI: Applied Machine Lear

Inhaltsverzeichnis

  1. Frontmatter

  2. Robustness

    1. Frontmatter

    2. MMA: Multi-Metric-Autoencoder for Analyzing High-Dimensional and Incomplete Data

      Cheng Liang, Di Wu, Yi He, Teng Huang, Zhong Chen, Xin Luo
      Das Kapitel stellt den Multi-Metric-Autoencoder (MMA) vor, einen neuartigen Ansatz zur Analyse hochdimensionaler und unvollständiger Datenmatrizen. MMA verwendet unterschiedliche Normen, um vier variante Autoencoder mit jeweils einzigartigen metrischen Leerräumen zu bauen und diese mittels einer selbstadaptiven Gewichtungsstrategie zu aggregieren. Diese Methode adressiert die Beschränkungen einzelner metrischer Modelle, indem sie eine umfassendere Darstellung der Daten bereitstellt. Das Kapitel umfasst auch theoretische Analysen und empirische Studien, die die überlegene Leistung des MMA auf realen Datensätzen belegen und seine Robustheit und Recheneffizienz demonstrieren. Der innovative Einsatz von Multiple-Normen und die selbstanpassende Ensemblestrategie machen MMA zu einem bedeutenden Fortschritt im Bereich der Datenrepräsentation.
    3. Exploring and Exploiting Data-Free Model Stealing

      Chi Hong, Jiyue Huang, Robert Birke, Lydia Y. Chen
      Das Kapitel geht den Sicherheitsrisiken tiefer Modelle nach, insbesondere ihrer Anfälligkeit gegenüber Diebstahl von Modellen. Es wird diskutiert, wie Gegner den offenen Zugang zu eingesetzten Modellen ausnutzen können, um Wissen zu stehlen und Ersatzmodelle für bösartige Zwecke zu schaffen. Der Text stellt TandemGAN vor, ein neuartiges Rahmenwerk, das sich mit den Beschränkungen bestehender datenfreier Methoden des Modelldiebstahls befasst. TandemGAN nutzt einen Tandemgenerator, um den synthetischen Datenraum zu erforschen und zu nutzen und qualitativ hochwertige Abfragen zu erzeugen, die die Wissensextraktion maximieren. Das Kapitel beleuchtet auch die umfassende Evaluierung von TandemGAN im Vergleich zu modernsten Methoden und demonstriert seine überlegene Leistung beim Diebstahl von Modellwissen unter verschiedenen widrigen Szenarien. Die Beiträge, die Methodik und die experimentellen Ergebnisse werden detailliert vorgestellt, was das Kapitel zu einer wertvollen Ressource für Spezialisten macht, die sich für Modellsicherheit und feindliche Angriffe interessieren.
    4. Exploring the Training Robustness of Distributional Reinforcement Learning Against Noisy State Observations

      Ke Sun, Yingnan Zhao, Shangling Jui, Linglong Kong
      Das Kapitel geht der kritischen Frage nach, wie robuste Lernalgorithmen für Verstärkung in lauten Umgebungen trainiert werden können, wobei der Schwerpunkt auf verteiltem Verstärkungslernen (DRL) liegt. Es führt den State-Noisy Markov Decision Process (SN-MDP) ein, um lärmintensive Zustandsbeobachtungen zu modellieren und beweist die Konvergenz und Kontraktion von verteilungsorientierten Bellman-Operatoren in diesem Umfeld. Die Autoren vergleichen DRL mit erwartungsbasiertem RL und heben dabei die eingeschränkten Gradienten-Normen im DRL hervor, die die Trainingsrobust erhöhen. Empirische Ergebnisse in verschiedenen Umgebungen, einschließlich klassischer Kontrolle, kontinuierlicher Kontrolle und Atari-Spielen, bestätigen die überlegene Robustheit von DRL sowohl gegen zufällige als auch gegen feindliche Zustandsgeräusche. Diese gründliche Analyse bietet wertvolle Einblicke in den praktischen Einsatz von Tagfahrlicht in der realen Welt.
    5. Overcoming the Limitations of Localization Uncertainty: Efficient and Exact Non-linear Post-processing and Calibration

      Moussa Kassem Sbeyti, Michelle Karg, Christian Wirth, Azarm Nowzad, Sahin Albayrak
      Das Kapitel befasst sich mit den Herausforderungen aleatorischer Unsicherheit bei Objektdetektoren, insbesondere in sicherheitskritischen Systemen. Es werden zwei neue Methoden zur Ausbreitung der Unsicherheit durch nichtlineare Funktionen eingeführt: normalisierende Flüsse und lognormale Eigenschaften. Diese Methoden ermöglichen eine genaue Schätzung der Unsicherheit ohne zusätzliche Nachteile. Die Arbeit erweitert auch bestehende Kalibrierungsmethoden auf Lokalisierungsaufgaben, einschließlich der Kalibrierung pro Koordinate und pro Klasse, und führt einen Ansatz zur Datenauswahl für die Kalibrierung ein. Experimentelle Ergebnisse zeigen die Effektivität dieser Methoden bei der Verbesserung der Lokalisierungsleistung und der Verkürzung der Inferenz-Zeit. Das Kapitel untersucht weiter die Korrelation zwischen aleatorischer Unsicherheit und verschiedenen Messgrößen wie Erkennungsgenauigkeit, Bildqualität und Objektentfernung und hebt die Zuverlässigkeit und Interpretierbarkeit der vorhergesagten Unsicherheiten hervor.
    6. Label Shift Quantification with Robustness Guarantees via Distribution Feature Matching

      Bastien Dussap, Gilles Blanchard, Badr-Eddine Chérief-Abdellatif
      Das Kapitel befasst sich mit der Herausforderung des Etikettenwechsels beim überwachten Lernen, bei dem sich die Verteilung der Trainings- und Testdaten unterscheidet. Es führt Distribution Feature Matching (DFM) ein, ein allgemeines Rahmenwerk zur Quantifizierung von Etikettenverschiebungen, das bestehende Methoden vereinheitlicht und Robustheitsgarantien bietet. Die Autoren präsentieren theoretische Analysen und praktische Anwendungen, die die Effektivität von DFM im Umgang mit kontaminierten Etikettenverschiebungsszenarien aufzeigen. Das Kapitel umfasst auch Experimente zu synthetischen und realen Datensätzen, die die Robustheit von DFM-Methoden gegenüber verschiedenen Arten von Lärm demonstrieren. Die Verwendung von Random Fourier Features zur Angleichung des Kernels wird hervorgehoben, wodurch die Berechnungskosten signifikant gesenkt werden, während theoretische Garantien beibehalten werden.
    7. Robust Classification of High-Dimensional Data Using Data-Adaptive Energy Distance

      Jyotishka Ray Choudhury, Aytijhya Saha, Sarbojit Roy, Subhajit Dutta
      Das Kapitel untersucht die Herausforderung, hochdimensionale Daten mit geringen Stichprobengrößen zu klassifizieren, wo herkömmliche Methoden wie logistische Regression und SVMs häufig versagen. Sie führt den Energieabstand als robustes Maß für die Klassifizierung ein und zeigt, wie er modifiziert werden kann, um unter allgemeinen Annahmen eine asymptotisch perfekte Klassifizierung zu erreichen. Die Autoren stellen drei raffinierte Klassifikatoren vor, die die Grenzen des ursprünglichen Ansatzes adressieren und starke theoretische Garantien und empirische Validierung durch Simulationsstudien und reale Datenanalyse bieten. Das Kapitel hebt die Vorteile dieser Klassifikatoren gegenüber gängigen Methoden hervor, insbesondere ihre Robustheit gegenüber Ausreißern und das Fehlen von Tuning-Parametern. Die Ergebnisse zeigen die Effektivität der vorgeschlagenen Methoden in verschiedenen hochdimensionalen Datensätzen auf und belegen ihre überlegene Leistung und praktische Anwendbarkeit.
    8. DualMatch: Robust Semi-supervised Learning with Dual-Level Interaction

      Cong Wang, Xiaofeng Cao, Lanzhe Guo, Zenglin Shi
      Das Kapitel "DualMatch: Robust Semi-Supervised Learning with Dual-Level Interaction" geht den Herausforderungen des semi-Supervised Learning (SSL) nach und stellt DualMatch vor, einen bahnbrechenden Algorithmus, der die Beschränkungen bestehender SSL-Methoden adressiert. Durch die Angleichung von Feature-Einbettungen und Klassenvorhersagen auf zwei Ebenen verbessert DualMatch die Robustheit und Qualität von Pseudo-Labels, was zu erheblichen Leistungsverbesserungen führt. Die Methodik wird streng anhand von Standard-SSL-Benchmarks und klassenunausgewogenen Einstellungen bewertet, was die Überlegenheit von DualMatch gegenüber modernen Techniken zeigt. Das Kapitel bietet auch eine detaillierte Erklärung der Komponenten und experimentellen Ergebnisse des Algorithmus, was ihn zu einer wertvollen Ressource für Forscher und Praktiker im Bereich des maschinellen Lernens macht.
    9. Detecting Evasion Attacks in Deployed Tree Ensembles

      Laurens Devos, Lorenzo Perini, Wannes Meert, Jesse Davis
      Das Kapitel untersucht die Anfälligkeit von Baumgruppen für Ausweichangriffe und stellt eine neue Methode zur Erkennung solcher Angriffe vor, indem die Ungewöhnlichkeit der Ausgabekonfiguration eines Beispiels gemessen wird. Dieser Ansatz erfordert keine Schulung eines separaten Modells und kann durch Parallelität auf Unterrichtsebene effizient umgesetzt werden. Die Methode wird anhand verschiedener Datensätze und Ensembletypen ausgewertet und zeigt im Vergleich zu bestehenden Methoden eine überlegene Leistung bei der Erkennung feindlicher Beispiele.
  3. Time Series

    1. Frontmatter

    2. Deep Imbalanced Time-Series Forecasting via Local Discrepancy Density

      Junwoo Park, Jungsoo Lee, Youngin Cho, Woncheol Shin, Dongmin Kim, Jaegul Choo, Edward Choi
      Das Kapitel "Deep Imbalanced Time-Series Forecasting via Local Discrepancy Density" befasst sich mit dem kritischen Thema abrupter Änderungen von Zeitreihendaten, die sich negativ auf Prognosemodelle auswirken. Die Autoren führen mit ReLD ein Rahmenwerk zur Neugewichtung ein, das die Verluste von Proben mit abrupten Veränderungen nach unten und die von Normalzuständen nach oben gewichtet. Dieser Ansatz verbessert die Prognosefähigkeit erheblich, indem er den ungleichen Verlust zwischen abrupten Veränderungen und normalen Zuständen ausgleicht. Die Methode nutzt eine als Lokale Diskrepanz (LD) bezeichnete Messgröße, um den Grad der Abruptheit in Zeitreihendaten zu bestimmen. Das Kapitel zeigt umfangreiche Experimente, die zeigen, dass ReLD die Leistung von zwölf existierenden Zeitreihenmodellen auf acht Datensätzen kontinuierlich verbessert und die MSE um bis zu 18,6% reduziert, wenn es auf das hochmoderne Modell angewendet wird. Die Autoren vergleichen ReLD auch mit anderen Methoden, die sich mit verrauschten Proben und Datenungleichgewichten befassen, was seine überlegene Leistung zeigt. Das Kapitel schließt mit einer Diskussion der Grenzen und potenziellen zukünftigen Richtungen des Rahmenwerks.
    3. Online Deep Hybrid Ensemble Learning for Time Series Forecasting

      Amal Saadallah, Matthias Jakobs
      Das Kapitel stellt ein fortschrittliches Online-Deep-Hybrid-Ensemblemodell für Zeitreihenvorhersagen vor, das die Komplexität von Zeitreihendaten durch die Integration von CNNs und eines vielfältigen Pool von Modellen berücksichtigt. Es betont den Einsatz von gradientenbasierten Kompetenzregionen (RoCs) zur adaptiven Gewichtung und Konzeptdrifterkennung, die es dem Modell ermöglichen, sich dynamisch an sich ändernde Datenmuster anzupassen. Die Methodik wird durch umfangreiche Experimente mit Datensätzen aus der realen Welt validiert, die eine überlegene Leistung und Recheneffizienz im Vergleich zu bestehenden Methoden nach dem neuesten Stand der Technik zeigen. In diesem Kapitel wird auch das Potenzial diskutiert, Erklärungen für das Verhalten von Modellen bereitzustellen, was es zu einer wertvollen Ressource für Praktiker macht, die versuchen, ihre Fähigkeiten zur Vorhersage von Zeitreihen zu verbessern.
    4. Sparse Transformer Hawkes Process for Long Event Sequences

      Zhuoqun Li, Mingxuan Sun
      Das Kapitel stellt den Sparse Transformer Hawkes Process (STHP) vor, ein innovatives Modell, das entwickelt wurde, um lange Ereignissequenzen effizient zu handhaben. Sie nimmt sich der Herausforderung an, sowohl kurzfristige als auch langfristige Abhängigkeiten in Ereignisdaten zu erfassen, indem sie einen neuartigen, zeitlich spärlichen Selbstaufmerksamkeitsmechanismus mit einem Transformator für aggregierte Ereigniszahlen integriert. Dieser zweikomponentige Ansatz verbessert nicht nur die Recheneffizienz, sondern verbessert auch die Fähigkeit des Modells, zukünftige Ereignisse präzise vorherzusagen. Das STHP-Modell wird ausgiebig anhand von Datensätzen aus der realen Welt ausgewertet und zeigt im Vergleich zu bestehenden Methoden eine überlegene Leistung. Das Kapitel beleuchtet auch die potenziellen Anwendungsmöglichkeiten des Modells in verschiedenen Bereichen wie Gesundheit, Finanzen und öffentliche Sicherheit, was es zu einer wertvollen Ressource für Fachleute und Forscher macht, die mit Ereignissequenzdaten arbeiten.
    5. Adacket: ADAptive Convolutional KErnel Transform for Multivariate Time Series Classification

      Junru Zhang, Lang Feng, Haowen Zhang, Yuhan Wu, Yabo Dong
      Adacket ist eine bahnbrechende Methode, die entwickelt wurde, um effiziente 1D-geweitete Wellenkerne für multivariate Zeitreihenklassifikationsaufgaben automatisch zu entwerfen. Sie nimmt sich der Herausforderung des ressourcenintensiven Kernel-Designs an, indem sie das Problem als mehrzielige Optimierungsaufgabe formuliert, die Leistung und Ressourceneffizienz ausbalanciert. Adacket setzt Verstärkungslernen ein, um gewundene Kerne adaptiv zu bestimmen, was umfassende Suchen über Kanäle und zeitliche Dimensionen ermöglicht. Die Methode zeigt beeindruckende Ergebnisse auf dem UEA-Benchmark und demonstriert überlegene Genauigkeit und Recheneffizienz im Vergleich zu modernsten Baselines. Insbesondere Adackets Fähigkeit, die Funktionsvielfalt zu verbessern und die Redundanz von Kanälen zu reduzieren, macht es zu einer herausragenden Lösung im Bereich der Zeitreihenanalyse.
    6. Efficient Adaptive Spatial-Temporal Attention Network for Traffic Flow Forecasting

      Hongyang Su, Xiaolong Wang, Qingcai Chen, Yang Qin
      Das Kapitel stellt EASTAN vor, ein neuartiges Netzwerk für die Verkehrsprognose, das die Herausforderungen statischer vordefinierter Graphen angeht und räumliche und zeitliche Korrelationsextraktion trennt. EASTAN setzt adaptive räumlich-zeitliche Verschmelzung ein, um heterogene Muster und dominante räumlich-zeitliche Aufmerksamkeit zu bereichern, um irrelevante Muster effizient herauszufiltern. Die EST-Block-Architektur integriert diese Komponenten, was zu einem Modell führt, das den modernsten Methoden in Leistung und Effizienz überlegen ist. Umfangreiche Experimente mit realen Datensätzen belegen die Überlegenheit von EASTAN und machen es zu einer überzeugenden Lösung für die Vorhersage von Verkehrsströmen.
    7. Estimating Dynamic Time Warping Distance Between Time Series with Missing Data

      Aras Yurtman, Jonas Soenen, Wannes Meert, Hendrik Blockeel
      Das Kapitel befasst sich mit der Herausforderung des Umgangs mit fehlenden Daten in der Zeitreihenanalyse, indem zwei Methoden eingeführt werden: DTW-AROW und DTW-CAI. DTW-AROW ist ein lokaler Ansatz, der den DTW-Algorithmus modifiziert, um fehlende Werte zu behandeln, während DTW-CAI ein globaler Ansatz ist, der kontextbezogene Informationen aus dem Datensatz nutzt. Beide Methoden werden durch umfangreiche Experimente ausgewertet, die eine überlegene Leistung bei der Abschätzung von DTW-Entfernungen und eine höhere Genauigkeit bei der Klassifizierung und Clusterarbeit zeigen. Das Kapitel bietet auch einen umfassenden Hintergrund zu DTW und verwandten Techniken, was es zu einer wertvollen Ressource für Forscher und Praktiker auf dem Gebiet der Zeitreihenanalyse macht.
    8. Uncovering Multivariate Structural Dependency for Analyzing Irregularly Sampled Time Series

      Zhen Wang, Ting Jiang, Zenghui Xu, Jianliang Gao, Ou Wu, Ke Yan, Ji Zhang
      Das Kapitel geht der komplizierten Natur der Irregular Sampled Multivariate Time Series (IS-MTS) in Bereichen wie Klimawissenschaft, Ökologie, Finanzen und Medizin nach. Traditionelle Methoden des maschinellen Lernens haben aufgrund ihrer unregelmäßigen Abtastintervalle und asynchronen Sequenzen mit IS-MTS zu kämpfen. Das Kapitel stellt das neuartige Modell Multivariate Temporal Graph Networks (MTGNet) vor, das diese Herausforderungen überwindet, indem es zeitbewusste Abhängigkeiten erfasst und graphenstrukturelle Beziehungen extrahiert. MTGNet umfasst ein multivariates Interaktionsmodul, korrelationsbewusste Nachbarschaftsaggregation und ein maskiertes zeitbewusstes Selbstaufmerksamkeitsmodul. Diese Komponenten ermöglichen es dem Modell, mit unregelmäßigen Abtastintervallen und fehlenden Werten umzugehen, was zu überlegener Leistung bei nachgelagerten Klassifizierungsaufgaben führt. Umfassende Experimente mit realen Datensätzen zeigen die Effektivität von MTGNet und unterstreichen seine Fähigkeit, modernste Methoden bei der Erfassung struktureller Abhängigkeiten zwischen Variablen zu übertreffen.
    9. Weighted Multivariate Mean Reversion for Online Portfolio Selection

      Boqian Wu, Benmeng Lyu, Jiawen Gu
      Das Kapitel stellt die "Weighted Multivariate Mean Reversion" (WMMR) -Strategie für die Online-Portfolioauswahl vor, die sich mit den Beschränkungen bestehender Strategien zur durchschnittlichen Umkehr befasst. WMMR verwendet robuste multivariate Schätzungen, um die Auswirkungen von Ausreißern und Trendänderungen in Finanzdaten zu verringern und die Genauigkeit von Preisprognosen zu verbessern. Die Strategie ist rechnerisch effizient konzipiert, was sie für Hochfrequenzhandelsumgebungen geeignet macht. Experimentelle Ergebnisse zeigen, dass WMMR bestehende Algorithmen hinsichtlich des kumulativen Wohlstands übertrifft und gegenüber unterschiedlichen Parameterwerten und Transaktionskosten robust ist. Das Kapitel unterstreicht auch die Bedeutung der Berücksichtigung der Abhängigkeit mehrerer Vermögenswerte bei der Portfolioauswahl und bietet einen umfassenden Überblick über die damit verbundene Arbeit in diesem Bereich.
    10. H-Nets: Hyper-hodge Convolutional Neural Networks for Time-Series Forecasting

      Yuzhou Chen, Tian Jiang, Yulia R. Gel
      Das Kapitel "H-Netze: Hyper-hodge Convolutional Neural Networks for Time-Series Forecasting" geht der Komplexität räumlich-zeitlicher Vorhersagen nach und führt H-Netze als bahnbrechenden Ansatz ein, der hypergraphische neuronale Netze mit Hodge-Laplacian basierten vereinfachten Windungen integriert. Durch die Erfassung von Interaktionen höherer Ordnung und nicht trennbaren Abhängigkeiten in räumlich-zeitlichen Daten übertreffen H-Netze traditionelle Methoden und zeigen ihr Potenzial in verschiedenen Bereichen wie Verkehrsprognose, Prognose erneuerbarer Energien und Modellierung der Krankheitsverbreitung. Die Methodik umfasst selbstanpassende k-Simplex-Faltung, Hodge k-Laplacian-Faltung und Hyper-k-Simplex-Graph-Faltung, die eine umfassende Darstellung komplexer räumlicher und zeitlicher Dynamiken ermöglichen. Das Kapitel enthält auch detaillierte experimentelle Ergebnisse zu verschiedenen Datensätzen aus der realen Welt, die die überlegene Leistung von H-Netzen im Vergleich zu modernen Modellen demonstrieren. Diese Arbeit bringt nicht nur den Stand der Technik bei der Vorhersage von Zeitreihen voran, sondern eröffnet auch neue Wege für die Erforschung von Graphenlernen und Interaktionen höherer Ordnung in multidimensionalen, sich zeitlich entwickelnden Daten.
  4. Transfer and Multitask Learning

    1. Frontmatter

    2. Overcoming Catastrophic Forgetting for Fine-Tuning Pre-trained GANs

      Zeren Zhang, Xingjian Li, Tao Hong, Tianyang Wang, Jinwen Ma, Haoyi Xiong, Cheng-Zhong Xu
      Das Kapitel befasst sich mit der Herausforderung des katastrophalen Vergessens bei der Feinabstimmung vorausgebildeter GANs, ein häufiges Problem, das den Wissenstransfer von großen Datensätzen zu kleineren Zieldatensätzen behindert. Es beginnt damit, den Erfolg des Transferlernens in verschiedenen Bereichen und die spezifischen Herausforderungen beim GAN-Feintuning zu skizzieren. Die Autoren identifizieren zwei grundlegende Fragen, die geklärt werden müssen, um das katastrophale Vergessen zu überwinden: Warum es geschieht und wie es erkannt und verhindert werden kann. Das Kapitel stellt zwei Lernprogramme vor, Trust-Region Optimization und Spectral Diversification, die darauf abzielen, diese Fragen zu beantworten. Trust-Region Optimization modelliert Eingangsverteilungen auf der Grundlage von Zieldaten und passt sie dynamisch an eine Standard-Gaußsche Verteilung an, während Spectral Diversification die Vielfalt der generierten Daten erhöht, indem der kleinste singuläre Wert der Merkmalsmatrix erhöht wird. Im Kapitel werden diese Programme detailliert erläutert, einschließlich ihrer theoretischen Grundlagen und praktischen Umsetzung. Umfangreiche Experimente mit populären Transferlernbenchmarks zeigen die überlegene Leistung dieser Programme, insbesondere in kleinen Datensätzen. Das Kapitel schließt mit der Hervorhebung der Vorteile dieser Programme bei der Bekämpfung des katastrophalen Vergessens und ihres Potenzials für breitere Anwendungen im GAN-Feintuning.
    3. Unsupervised Domain Adaptation via Bidirectional Cross-Attention Transformer

      Xiyu Wang, Pengxin Guo, Yu Zhang
      Das Kapitel stellt ein neuartiges bidirektionales Cross-Attention Transformer (BCAT) -Modell vor, das für die unbeaufsichtigte Domain-Adaptation (UDA) in der Computervision entwickelt wurde. Das BCAT-Modell überwindet die Beschränkungen bestehender UDA-Methoden, indem es bidirektionale Queraufmerksamkeit einbezieht, um die Ausrichtung der Domänen zu verbessern und das Lernen der Darstellung zu fördern. Dieser Ansatz ermöglicht es dem Modell, domäneninvariante Merkmale effektiv zu erlernen, was zu einer verbesserten Leistung auf verschiedenen Benchmark-Datensätzen führt. Das BCAT-Modell übertrifft modernste Methoden und zeigt seine Wirksamkeit bei der Überbrückung der Domänenlücke und der Erreichung hoher Genauigkeit bei UDA-Aufgaben. Darüber hinaus werden in diesem Kapitel zwei effiziente Inferenzmodelle vorgestellt, die während der Inferenz keinen Zugriff auf Quelldaten erfordern, was die Praxistauglichkeit der BCAT-Methode weiter verbessert. Die experimentellen Ergebnisse und Ablationsstudien bestätigen die Überlegenheit des BCAT-Modells und machen es zu einem bedeutenden Beitrag auf dem Gebiet der UDA und des Computersehens.
    4. Multiple-Source Adaptation Using Variational Rényi Bound Optimization

      Dana Zalman (Oshri), Shai Fine
      Das Kapitel geht der Herausforderung der Domänenanpassung im maschinellen Lernen nach, bei der Modelle, die auf einer Verteilung trainiert wurden, auf eine andere angewandt werden. Es stellt das Konzept der Multiple-Source-Adaptation (MSA) vor, das Prädiktoren aus mehreren Quelldomänen kombiniert, um sich an eine neue Zieldomäne anzupassen. Der Autor stellt eine neue Obergrenze für den Log-Nachweis vor, die Variational Rényi Log Upper bound (VRLU) genannt wird, und entwickelt eine Methode zur Variation zwischen oberer und unterer Grenze, die als VRS bezeichnet wird, um diese Grenze zu optimieren. Die VRS-Methode wird dann angewandt, um das MSA-Problem zu lösen, und zeigt eine konkurrenzfähige Leistung in Experimenten mit realen Datensätzen. In diesem Kapitel werden auch die Vorteile der Verwendung variabler Schlussfolgerungen zur Dichteabschätzung diskutiert und das Potenzial der VRS-Methode in praktischen Anwendungen hervorgehoben.
    5. Match-And-Deform: Time Series Domain Adaptation Through Optimal Transport and Temporal Alignment

      François Painblanc, Laetitia Chapel, Nicolas Courty, Chloé Friguet, Charlotte Pelletier, Romain Tavenard
      Das Kapitel "Match-And-Deform: Time Series Domain Adaptation Through Optimal Transport and Temporal Alignment" stellt eine neue Methode namens Match-And-Deform (MAD) für die Anpassung von Zeitreihendomänen vor. MAD kombiniert Optimal Transport (OT) und Dynamic Time Warping (DTW), um die Herausforderung zeitlicher Deformationen zwischen Domänen anzugehen, die ein häufiges Problem in realen Zeitreihendaten ist. Die Methode berechnet gemeinsam eine OT-Koppelmatrix und klassenweise DTW-Pfade, was die Ausrichtung von Zeitreihendatensätzen ermöglicht und die Klassifizierungsleistung in Zieldomänen verbessert. Das Kapitel behandelt auch die Eigenschaften und Optimierung von MAD und präsentiert experimentelle Ergebnisse, die seine Wirksamkeit bei der Fernerkundung und Bewegungserfassung von Datensätzen belegen. Darüber hinaus vergleicht er den MAD mit bestehenden Methoden zur Domänenanpassung und hebt seine überlegene Leistung im Umgang mit zeitlichen Verschiebungen zwischen Domänen hervor.
    6. Bi-tuning: Efficient Transfer from Pre-trained Models

      Jincheng Zhong, Haoyu Ma, Ximei Wang, Zhi Kou, Mingsheng Long
      Im Kapitel "Bi-tuning: Efficient Transfer from Pre-trained Models" werden die Herausforderungen beim Feintuning von vortrainierten Modellen in Szenarien mit begrenzten markierten Daten diskutiert. Es führt Bi-Tuning ein, einen neuartigen Ansatz, der sowohl überwachte als auch unbeaufsichtigte Vorschulungsmethoden integriert, um die Feinabstimmung zu verbessern. Bi-Tuning nutzt eine Zweikopf-Architektur mit kontrastiver Cross-Entropie und kategorischen kontrastiven Lernverlusten, um Etiketteninformationen und intrinsische Datenstrukturen besser zu nutzen. Umfassende Experimente zeigen, dass Bi-Tuning bei verschiedenen Benchmarks modernste Ergebnisse erzielt, was seine Wirksamkeit und allgemeine Anwendbarkeit unterstreicht. Die Methode ist so konzipiert, dass sie leicht auf verschiedene Datensätze und Aufgaben anwendbar ist, was sie zu einem wertvollen Beitrag im Bereich des Transfer Learning im Deep Learning macht.
    7. Generality-Training of a Classifier for Improved Calibration in Unseen Contexts

      • Open Access
      Bhawani Shankar Leelar, Meelis Kull
      Das Kapitel "Generality-Training of a Classifier for Improved Calibration in Unseen Contexts" widmet sich dem Problem der Kalibrierung in tiefen neuronalen Netzwerken, insbesondere bei Verteilungsverschiebungen. Herkömmliche Kalibrierungsmethoden haben aufgrund von Domänendisparitäten mit übermäßigem Vertrauen in neue Zusammenhänge zu kämpfen. Der Autor stellt CaliGen vor, einen neuartigen Ansatz, der die Verallgemeinerung der Kalibrierung verbessert, indem er den Vorhersagekopf des Netzwerks modifiziert und eine benutzerdefinierte Verlustfunktion verwendet, die Vorhersagegenauigkeit und Kalibrierfehler ausbalanciert. Die Methode wird an mehreren Datensätzen getestet und mit modernsten Techniken verglichen, was eine überlegene Kalibrierung und Genauigkeit in unsichtbaren Bereichen demonstriert. Das Kapitel enthält auch eine theoretische Begründung und Ablationsstudien, die die Vorteile der vorgeschlagenen Methode hervorheben.
      PDF-Version jetzt herunterladen
    8. Informed Priors for Knowledge Integration in Trajectory Prediction

      Christian Schlauch, Christian Wirth, Nadja Klein
      Das Kapitel führt einen probabilistischen Ansatz des informierten Lernens (IL) ein, um früheres Welt- und Expertenwissen systematisch in Deep-Learning-Modelle zu integrieren. Dieser Ansatz, operationalisiert durch regularisierungsbasierte Methoden des kontinuierlichen Lernens, ermöglicht die "weiche Einschränkung" des Wissens, ohne Ausnahmen auszuschließen. Die Autoren demonstrieren die Effektivität dieser Methode, indem sie sie auf die Bahnvorhersage beim autonomen Fahren anwenden und dabei hochmoderne Modelle wie CoverNet und MultiPath verwenden. Die Studie zeigt signifikante Verbesserungen bei der Vorhersageleistung, insbesondere in Szenarien mit begrenzten Trainingsdaten, und hebt das Potenzial probabilistischer IL zur Verbesserung der Sicherheit und Zuverlässigkeit in autonomen Systemen hervor.
    9. CAENet: Efficient Multi-task Learning for Joint Semantic Segmentation and Depth Estimation

      Luxi Wang, Yingming Li
      Das Kapitel stellt CAENet vor, ein innovatives Multi-Task-Lernmodell zur gemeinsamen semantischen Segmentierung und Tiefeneinschätzung. CAENet stellt sich der Herausforderung, Effizienz und Genauigkeit in Echtzeit-Anwendungen auszubalancieren, indem es ein leichtes Rückgrat einsetzt und zwei Schlüsselmodule einführt: Inception Residual Pooling (IRP) und Light-weight Attentive Fusion (LAF). Das IRP-Modul erfasst kontextbezogene Informationen effizient durch verschiedene rezeptive Felder, während das LAF-Modul Funktionen durch einen pseudo-stereoskopischen Aufmerksamkeitsmechanismus adaptiv anreichert. Umfangreiche Experimente mit populären Datensätzen zeigen die überlegene Leistung von CAENet im Vergleich zu bestehenden Methoden und unterstreichen sein Potenzial für echtzeitfähiges Multi-Task-Lernen in praktischen Anwendungen.
    10. Click-Aware Structure Transfer with Sample Weight Assignment for Post-Click Conversion Rate Estimation

      Kai Ouyang, Wenhao Zheng, Chen Tang, Xuanji Xiao, Hai-Tao Zheng
      Das Kapitel geht den Herausforderungen der Conversion Rate (CVR) -Vorhersage nach, insbesondere dem Problem der Datenspärlichkeit. Es hebt das Problem des "Fluchs des Wissens" hervor, das entsteht, wenn Hilfsaufgaben wie die Klickrate (CTR) eingeführt werden. Das vorgeschlagene Click-aware Structure Transfer with Sample Weight Assignment (CSTWA) -Modell wird eingeführt, um dieses Problem zu entschärfen, indem aufgabenunabhängige Strukturinformationen übertragen und ein neuartiger Gewichtszuweisungsalgorithmus verwendet wird. Die Effektivität des Modells wird durch umfangreiche Experimente mit industriellen und öffentlichen Datensätzen demonstriert, die seine überlegene Leistung im Vergleich zu bestehenden Methoden zeigen.
    11. Constrained-HIDA: Heterogeneous Image Domain Adaptation Guided by Constraints

      Mihailo Obrenović, Thomas Lampert, Miloš Ivanović, Pierre Gançarski
      Das Kapitel "Constrained-HIDA: Heterogeneous Image Domain Adaptation Guided by Constraints" befasst sich mit den Herausforderungen überwachter Deep-Learning-Modelle in der Fernerkundung aufgrund der Knappheit und Kosten markierter Daten. Es führt eine neue Methode mit dem Namen Constrained-HIDA ein, die den Lernprozess in heterogenen Bereichen mithilfe von Beschränkungen lenkt und so den Bedarf an gekennzeichneten Daten verringert. Die Methode nutzt domäneninvariante Merkmale und kontrastiven Verlust, um die korrekte lokale Struktur von Domänen zu erhalten. Experimentelle Ergebnisse zeigen, dass Constrained-HIDA mit einer viel geringeren Menge markierter Daten vergleichbare Leistungen wie semi-überwachte Methoden erzielen kann. Dies unterstreicht sein Potenzial, den Kennzeichnungsprozess zu erleichtern und die Anpassung der Domäne an die Fernerkundung zu verbessern.
  5. Backmatter

Titel
Machine Learning and Knowledge Discovery in Databases: Research Track
Herausgegeben von
Danai Koutra
Claudia Plant
Manuel Gomez Rodriguez
Elena Baralis
Francesco Bonchi
Copyright-Jahr
2023
Electronic ISBN
978-3-031-43424-2
Print ISBN
978-3-031-43423-5
DOI
https://doi.org/10.1007/978-3-031-43424-2

Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.

    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Deutsche Telekom MMS GmbH/© Vendosoft, Noriis Network AG/© Noriis Network AG, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data, Videocast 1: Standbild/© Springer Fachmedien Wiesbaden, KI-Wissen für mittelständische Unternehmen/© Dell_Getty 1999938268, IT-Director und IT-Mittelstand: Ihre Webinar-Matineen /© da-kuk / Getty Images / iStock