Behavioural and Social Computing
12th International Conference, BESC 2025, Hong Kong SAR, China, October 16–18, 2025, Proceedings, Part I
- 2026
- Buch
- Herausgegeben von
- Tianyong Hao
- Juan Velásquez
- Qing Li
- Bin Hu
- Guandong Xu
- Buchreihe
- Lecture Notes in Computer Science
- Verlag
- Springer Nature Singapore
Über dieses Buch
Über dieses Buch
This three-volume set LNCS 16431-16433 constitutes the refereed proceedings of the 12th International Conference on Behavioural and Social Computing, BESC 2025 held in Hong Kong SAR, China, during October 16–18, 2025.
The 18 full papers and 5 short papers presented in this volumes were carefully reviewed and selected from 149 submissions.
These papers focus on various aspects of social computing, applied psychology, behaviour pattern learning, text and sentiment
analysis, graph learning, AI in education, and AI for social good.
Inhaltsverzeichnis
-
Frontmatter
-
Early Detection of Fake News Based on Sequential Analysis of Social Context and Adaptive Thresholding
Jianwei Zhang, Soma Tani, Lin LiDieses Kapitel vertieft sich in die kritische Frage der Erkennung von Fake News und konzentriert sich auf die frühen Stadien der Nachrichtenverbreitung. Sie führt eine neue Methode ein, die sequenzielle Analysen des sozialen Kontextes und adaptive Schwellenwerte nutzt, um die Klassifizierungsleistung zu verbessern. Die Studie kombiniert statische Nachrichteninhalte mit sich zeitlich verändernden sozialen Interaktionen und nutzt dabei das gemeinsame Lernen, um die Robustheit zu erhöhen. Experimente mit zwei Datensätzen aus der realen Welt, FakeNewsNet und Fakeddit, zeigen die Wirksamkeit der vorgeschlagenen Methode, insbesondere in frühen Erkennungsstadien. Die Ergebnisse zeigen, dass die Methode die Basisansätze übertrifft, was die Bedeutung dynamischer Schwellenanpassungen und multimodaler Integration unterstreicht. In diesem Kapitel werden auch die Grenzen und zukünftigen Richtungen für die Verbesserung der Rahmenwerke zur Erkennung von Fake News diskutiert, um eine hohe Genauigkeit während des gesamten Lebenszyklus der Nachrichtenverbreitung zu gewährleisten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractWith the development and proliferation of social networking services, the widespread dissemination of false and misleading information—so-called fake news—has become a serious societal issue. Fake news can negatively affect various domains, including politics and economics, making early detection critical. Recent studies on automated fake news detection have primarily leveraged language models, with growing evidence that incorporating social context improves classification performance. However, as social context accumulates over time, a trade-off emerges between detection accuracy and timeliness. To address this challenge, we propose an early fake news detection method based on sequential analysis of social context and progressive threshold adjustment. Our method aims to enhance classification performance in the early stages of diffusion by removing news articles with high-confidence predictions from further analysis. By dynamically lowering the decision threshold as diffusion progresses, the method balances precision and recall—favoring confident early predictions while maintaining broader coverage later. Experimental results on two real-world datasets demonstrate that our method outperforms the baseline method in terms of F1 score during early detection stages, confirming its effectiveness in early-stage fake news identification. -
Accelerating High-Dimensional Expensive Multi-objective Optimization via Surrogate-Assisted Fuzzy Directed Sampling
Zihua Guo, Min-Rong Chen, Jixiang Zeng, Zeyan Zhang, Songxiang ZhongDieses Kapitel vertieft die Komplexität multiobjektiver Optimierungsprobleme (MOPs), insbesondere derjenigen, die hochdimensionale Entscheidungsvariablen und rechnerisch kostspielige Auswertungen betreffen. Die Autoren stellen einen neuartigen Ansatz namens FDSEMO vor, der ersatzweise unterstützte evolutionäre Algorithmen mit unscharfem, gerichtetem Sampling kombiniert, um Optimierungsprozesse zu verbessern. Das Kapitel beginnt mit der Definition von MOPs und ihrer Verbreitung in Bereichen wie künstlicher Intelligenz, Terminplanung und Ökonomie. Anschließend werden die Herausforderungen untersucht, die durch kostspielige multiobjektive Optimierungsprobleme (EMOPs) und die Beschränkungen bestehender Surrogat-unterstützter Evolutionsalgorithmen (SAEAs) entstehen. Der vorgeschlagene FDSEMO-Algorithmus ist detailliert und hebt seine Komponenten hervor: adaptive Surrogat-assistierte Evolution, gerichtete Probenahme, verschwommener Betrieb und ökologische Selektion. Die Autoren präsentieren umfassende experimentelle Ergebnisse und vergleichen FDSEMO mit sechs hochmodernen Algorithmen zu verschiedenen Benchmarks. Die Ergebnisse zeigen die überlegene Leistung von FDSEMO bei der Erreichung guter Konvergenz und Vielfalt der Lösungen. Zusätzlich bestätigen Ablationsexperimente die Effektivität der unscharf gesteuerten Probenahmestrategie. Das Kapitel schließt mit der Diskussion potenzieller Verbesserungen und zukünftiger Forschungsrichtungen für FDSEMO und betont seine Anwendbarkeit auf Probleme der realen Welt.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractSurrogate-assisted multi-objective evolutionary algorithms (SAEAs) have shown great performance in solving computationally expensive multi-objective optimization problems. However, when the dimensionality of the decision variables increases, the performance of these algorithms deteriorates drastically due to the curse of dimensionality and the interactions between the decision variables. In order to solve this problem, this paper proposes a fuzzy directed sampling assisted SAEA called FDSEMO. The use of directed sampling to obtain guiding solutions contributes to the rapid convergence of the population, and then using fuzzy operations to approximate the solutions in the population reduces the cumulative prediction error of the model and strengthens the global search capability. A comprehensive comparison of FDSEMO with six state-of-the-art algorithms on two standardized benchmarks shows that FDSEMO is capable of obtaining solution sets with better convergence and diversity. -
An Improved Large-Scale Multi-objective Competitive Swarm Optimizer Based on Harris Hawks Optimization
Jixiang Zeng, Min-Rong Chen, Zihua Guo, Zeyan Zhang, Songxiang ZhongIn diesem Kapitel wird ein erweiterter, multiobjektiver Schwarm-Optimierer vorgestellt, der auf Harris Hawks Optimization (LMOHHO) basiert. Der Text vertieft sich in die mathematischen Definitionen multiobjektiver Probleme und die Herausforderungen, die sich aus groß angelegten multiobjektiven Optimierungsproblemen (LSMOPs) ergeben. Es untersucht die Stärken und Schwächen bestehender Algorithmen wie CSO und HHO und präsentiert einen neuartigen Algorithmus, der das Beste aus beiden Welten kombiniert. Die experimentelle Studie bewertet die Leistung von LMOHHO anhand von sechs hochmodernen multiobjektiven evolutionären Algorithmen (MOEAs) auf verschiedenen Benchmark-Suiten und demonstriert seine überlegenen Such- und Konvergenzfähigkeiten. Die Ergebnisse unterstreichen die Effektivität von LMOHHO bei der Lösung komplexer Optimierungsprobleme und machen es zu einem wertvollen Werkzeug für Fachleute in Bereichen, die fortgeschrittene Optimierungstechniken erfordern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractLarge-scale multi-objective optimization problems (LSMOPs), characterized by their high-dimensional decision spaces, pose a formidable challenge to solving multi-objective optimization. This paper proposes LMOHHO, an enhanced Harris Hawks optimizer specifically adapted for LSMOPs. The core of LMOHHO integrates the distinct strengths of competitive swarm optimization (CSO) and Harris Hawks optimization (HHO). The algorithm employs CSO for the global search to maintain a diverse population and uses HHO to accelerate convergence. An adaptive switching strategy dynamically manages the balance between these exploration and exploitation phases. The efficacy of LMOHHO is validated by its strong performance in experiments conducted on standard test problems. -
Multimodal Multiobjective Optimization Algorithm Based on Two-Stage Proportional Selection
Zeyan Zhang, Min-Rong Chen, Jixiang Zeng, Zihua Guo, Songxiang ZhongDieses Kapitel vertieft die Komplexität multimodaler multiobjektiver Optimierungsprobleme (MMOPs), die im Engineering Design, in der Ressourcenallokation und im maschinellen Lernen weit verbreitet sind. Die zentrale Herausforderung besteht darin, mehrere sich widersprechende Ziele gleichzeitig zu optimieren, wie etwa die Maximierung der Produktleistung bei gleichzeitiger Minimierung der Kosten. Das Kapitel stellt einen neuen Algorithmus vor, MMEA-TSPS, der eine zweistufige Methode der proportionalen Selektion anwendet, um diese Probleme effektiv zu lösen. Der Algorithmus unterteilt die Bevölkerung in Unterpopulationen, um verschiedene Pareto-Gruppen (PSs) zu erforschen, und verwendet einen zweistufigen Selektionsansatz, um Diversität und Konvergenz auszugleichen. Experimentelle Ergebnisse an 28 Testinstanzen aus CEC2019 und IDMP-Testsuiten zeigen, dass MMEA-TSPS sieben hochmoderne Algorithmen sowohl in Entscheidungs- als auch in Objektivräumen übertrifft. Das Kapitel enthält auch eine Parametersensitivitätsanalyse, um optimale Werte für die Parameter des Algorithmus zu ermitteln. Die Ergebnisse unterstreichen die Robustheit und Anpassungsfähigkeit des Algorithmus und machen ihn zu einem vielversprechenden Werkzeug für die Lösung von MMOPs in verschiedenen Anwendungen in der realen Welt.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn multimodal multiobjective optimization problems, the existence of multiple equivalent Pareto optimal sets poses a challenge for optimization algorithms to balance convergence and diversity. Existing algorithms still have room for performance improvement in handling such problems. Therefore, this paper proposes a novel multimodal multiobjective optimization algorithm. Its key innovation lies in the introduction of a proportional selection strategy during the environmental selection process. By rationally setting the proportion to screen individuals for the next generation, it effectively balances the diversity and convergence of the population. To verify the performance of the algorithm, comprehensive comparative experiments are conducted between it and seven advanced multimodal multiobjective optimization algorithms. The results show that the proposed algorithm performs excellently in terms of the comprehensive performance in both the decision space and the objective space, significantly outperforming the comparative algorithms. -
A Multidimensional Sentiment Analysis Model for Experience Assessment
Wanwan Zheng, Yang Li, Koji Makino, Katsuhisa Yoshikawa, Kunihiko Hara, Hiroshi Shibata, Hideki OhiraDieses Kapitel untersucht die Entwicklung und Bewertung eines multidimensionalen Stimmungsanalysemodells zur Bewertung des Erfahrungswertes in Verbraucherinteraktionen. Die Studie befasst sich mit den Grenzen traditioneller Marketingstrategien und der wachsenden Bedeutung emotionaler Resonanz bei der Entscheidungsfindung der Verbraucher. Schlüsselthemen sind die Konzeptualisierung des Erlebnismarketings, die Rolle von Emotionen bei der Entscheidungsfindung und die Herausforderungen bei der Erfassung und Quantifizierung emotionaler Reaktionen. Das Kapitel vertieft auch die Methodik zur Entwicklung des Stimmungsanalysemodells, einschließlich der Datenerhebung, Feinabstimmungsprozesse und experimenteller Bewertungen. Die Ergebnisse zeigen die Effektivität des Modells bei der Erfassung nuancierter emotionaler Muster und der Reproduktion der strukturellen Eigenschaften menschlicher Affekte, einschließlich emotionaler Opposition und Ausgeglichenheit. Die Ergebnisse unterstreichen die Eignung des Modells für Aufgaben der Stimmungsanalyse und sein Potenzial, erfahrungsgetriebene Anwendungen zu verbessern. Das Kapitel schließt mit einer Diskussion zukünftiger Forschungsrichtungen wie dem lingualen Transfer und der Einbeziehung von Fehler- und Interpretationsanalysen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn recent years, the increasing advancement and homogenization of products and services have made differentiation solely based on functionality or price increasingly difficult. Within this context, emotional resonance—emotional responses evoked through user experiences—has gained increasing recognition as a critical factor in contemporary marketing strategies. This study aims to quantitatively assess experiential value by analyzing users’ emotional responses during interactions with products or services. To this end, two multidimensional sentiment analysis models were proposed, which extend beyond the conventional binary classification of positive and negative sentiments. Experimental results demonstrated that the proposed models outperform existing sentiment analysis models in accurately reproducing and classifying human emotions within a multidimensional space. Moreover, the models’ effectiveness was demonstrated not only in terms of predictive accuracy but also in its ability to capture and reproduce the latent structure of emotions. -
Discrete-Time Sigma-Delta Modulator Coefficient Optimization via Soft Actor-Critic Reinforcement Learning
Wanli Zhao, Junpeng Zhang, Zhenyu Rao, Chen Yang, Minglei Tong, Yongqing SunDieses Kapitel untersucht die Optimierung diskreter Sigma-Delta-Modulator (SDM) -Koeffizienten mithilfe von Soft Actor-Critic (SAC) -Verstärkungslernen. Traditionelle linearisierte Modellierungsmethoden stehen bei der Umsetzung von Schaltkreisen in der realen Welt aufgrund von Nicht-Idealitäten und praktischen Beschränkungen vor Herausforderungen. Der vorgeschlagene SAC-basierte Ansatz bietet eine datengestützte Alternative, die diese Komplexität effektiv bewältigen kann. Das Kapitel beschreibt die Implementierungsarchitektur, einschließlich der Interaktion zwischen dem SAC-Agenten, MATLAB-Skripten und Simulink-Modellen. Außerdem werden die Formulierung des Markov-Entscheidungsprozesses, die Koeffizient-zu-Schaltkreis-Kartierung und die Systemsimulation diskutiert. Simulationsergebnisse zeigen signifikante Verbesserungen des Signal-to-Noise-Verhältnisses (SNR) und der effektiven Anzahl von Bits (ENOB) im Vergleich zu herkömmlichen Methoden. Das Kapitel schließt mit einem Leistungsvergleich zwischen dem vorgeschlagenen Design und anderen kürzlich veröffentlichten Studien, in dem die Vorteile des SAC-basierten Ansatzes bei der Erreichung eines hochpräzisen SDM-Designs hervorgehoben werden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractCoefficient optimization is critical for enhancing the performance of Sigma-Delta Modulator(SDMs), particularly in high-resolution analog-to-digital conversion. This paper proposes a reinforcement learning-based design framework using the Soft Actor-Critic (SAC) algorithm to optimize the key coefficients in discrete-time SDMs. The method autonomously adjusts feedforward, feedback, and integrator parameters to maximize signal-to-noise ratio (SNR) while ensuring loop stability. To validate the approach, a third-order single-bit CIFF-structured SDM was implemented and co-simulated using the Ngspice environment. Compared with conventional linearized model-based optimization, the proposed method achieves higher SNR and better stability margins with significantly reduced manual intervention. This approach enhances design efficiency, minimizes reliance on empirical parameter tuning, and demonstrates strong potential for integration into intelligent analog-digital co-design workflows. -
Anomaly Detection Method for Tabular Data Based on a Three-Phase Learning Paradigm
Yufei Li, Hongtao Song, Qilong HanDieses Kapitel untersucht eine bahnbrechende Methode zur Erkennung von Anomalien in tabellarischen Daten, wobei der Schwerpunkt auf einem dreiphasigen Lernparadigma liegt, das Automatisierung und Genauigkeit verbessert. In der ersten Phase wird ein genetischer Algorithmus für die Datenauswahl und Erstkennzeichnung eingeführt, wodurch manuelle Eingriffe überflüssig werden. In der zweiten Phase wird ein verbesserter Etikettenvermehrungsalgorithmus eingesetzt, um die Etikettenspärlichkeit und das Datenungleichgewicht zu beheben. In der dritten Phase wird eine iterative Strategie zur Erzeugung von Pseudo-Labels vorgeschlagen, die die Rekonstruktion von Autoencoderfunktionen und PU-Lernkonzepte nutzt, um ein leistungsstarkes Anomalieerkennungsmodell zu schulen. Das Kapitel diskutiert auch die Methodik, einschließlich Datendekomposition, Berechnung des Fitness-Scores und die allgemeine Architektur des vorgeschlagenen Modells. Experimentelle Ergebnisse an fünf Datensätzen aus der realen Welt zeigen die Überlegenheit dieser Methode im Vergleich zu neun hochmodernen Anomalien-Erkennungsmethoden, was ihre Wirksamkeit und Praktikabilität unterstreicht. Durch die Integration dieser innovativen Techniken bietet das Kapitel eine umfassende Lösung zur Verbesserung der Datenqualitätssicherung in verschiedenen Branchen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractAnomaly detection is a crucial step in ensuring data quality. How to accurately and comprehensively identify outliers in data has always been a core challenge in the field of data science. Although existing studies have proposed a variety of anomaly detection methods for tabular data, some methods are often limited to specific types of data and are difficult to play an effective role in general scenarios. While machine learning-based methods can cover multiple types of errors, they are highly dependent on a large amount of high-quality labeled data, resulting in high system costs. The introduction of few-shot learning techniques has alleviated the labeling burden to a certain extent, but the problem of uneven distribution between labeled samples and unlabeled data still significantly restricts the improvement of model performance. To this end, this paper proposes a novel tabular data anomaly detection method (TP-ADM) from the perspective of data selection, adopting a three-stage learning paradigm to solve the above problems. First, a genetic algorithm is used to complete high-quality sample screening and initial label assignment; second, an improved label diffusion algorithm is introduced to alleviate the problem of uneven data distribution; finally, an iterative adaptive generation strategy for pseudo-labels is designed to achieve comprehensive determination of abnormal data. The experimental results on five benchmark datasets show that TP-ADM achieves excellent detection performance without relying on external knowledge bases. In addition, the data selection module proposed in this paper has a plug-and-play architecture feature, which can be integrated into existing anomaly detection frameworks, and its significant role in improving the performance of mainstream models has been verified in experiments. -
GADM: Granularity-Aware Diffusion Model for Uncertainty Forecasting in Non-stationary Time Series
Zhuhua Wang, Rui Chen, Hongtao Song, Qilong HanIn diesem Kapitel wird das Granularity-Aware Diffusion Model (GADM) vorgestellt, ein neuartiger Ansatz zur Vorhersage von Unsicherheit in nicht-stationären Zeitreihen. Das Modell adressiert die Beschränkungen traditioneller Methoden, indem es dynamische Granularitätszersetzung und störungsbewusste bedingte Kodierung einbezieht, was es in die Lage versetzt, mehrstufige Merkmale zu erfassen und nicht-stationäre Komponenten effektiv wiederherzustellen. Die Kernarchitektur von GADM besteht aus drei Schlüsselmodulen: Dynamic Granularity Decomposition (DGD), Perturbation Restoration Conditional Encoder (PRCE) und Multi-Granularity Guided Diffusion Generator (MGDG). Diese Module arbeiten zusammen, um Zeitreihendaten in verschiedene Granularitätsstufen zu zerlegen, Prozessmerkmale zur Anpassung an Volatilität zu entwickeln und genaue Vorhersagen durch einen durch mehrere Granularitäten geführten Diffusionsprozess zu generieren. Die experimentellen Ergebnisse zeigen, dass GADM im Hinblick auf Vorhersagegenauigkeit und Quantifizierung der Unsicherheit, insbesondere im Umgang mit komplexen dynamischen Szenen, besser abschneidet als Basismodelle. Das Kapitel behandelt auch die Implementierung und Evaluierung von GADM, bietet Einblicke in seine Leistungsfähigkeit über verschiedene Datensätze hinweg und hebt seine Vorteile im Umgang mit nichtstationären Zeitreihendaten hervor.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractTime series forecasting faces multiple uncertainties in complex dynamic scenarios, such as sudden disturbances and volatile data distributions. Traditional methods typically assume that data exhibits stable regularity, and ignoring such non-stationary characteristics makes it difficult to quantify prediction risks. While existing diffusion models generate probabilistic forecasts, their single-granularity modeling approach results in the loss of non-stationary information. Therefore, this paper proposes a granularity-aware diffusion model that achieves precise modeling of uncertainty through a multi-granularity collaborative learning framework. Firstly, a Dynamic Granularity Decomposition (DGD) is designed, utilizing differentiable probabilistic modeling to determine granularity size. Secondly, the Perturbation Restoration Conditional Encoder (PRCE) reconstructs non-stationary features via Gated Linear Units, incorporating prior knowledge from historical time series. Furthermore, a Multi-granularity Guided Diffusion Generator (MGDG) is designed to align coarse-grained trends with fine-grained fluctuations across different denoising stages, achieving gradual distribution optimization through conditionally constrained Markov chains. Experimental results demonstrate that the proposed framework outperforms existing methods on multi-granularity tasks, particularly exhibiting significant advantages in prediction accuracy and uncertainty forecasting. -
SpiderGNN: Spatial-Aware Predictive Inference with Dynamic Edge Reasoning for In-building 5G Signal Estimation
Xingyi Gao, David Hason Rudd, Ziang Li, Yuming Guo, Huan Huo, Guandong XuDas Kapitel stellt SpiderGNN vor, ein Rahmenwerk zur Vorhersage der 5G-Signalabdeckung in Innenräumen mittels von Drohnen gesammelter externer RF-Messungen. Sie befasst sich mit den Herausforderungen des eingebauten Signalabbaus und den Beschränkungen konventioneller Lösungen. Das Framework nutzt eine dynamische Graphenkonstruktion, um komplexe Signalausbreitungsmuster zu erfassen, und verwendet Dual-Task-Decodierung, um sowohl Signalstärke (RSSI) als auch -qualität (CQI) vorherzusagen. Experimentelle Ergebnisse zeigen signifikante Verbesserungen gegenüber Basismodellen mit einer deutlichen Verringerung von Vorhersagefehlern. In diesem Kapitel wird auch das Potenzial zukünftiger Verbesserungen diskutiert, wie etwa die Unterstützung mehrerer Frequenzbänder und die Integration zusätzlicher Indikatoren für die Servicequalität. Dieser innovative Ansatz bietet praktischen Nutzen für die Planung drahtloser Netzwerke und eröffnet neue Wege für die skalierbare, nicht-intrusive Modellierung der Abdeckung von Innenräumen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIndoor wireless coverage has emerged as a persistent constraint in modern 5G deployments, particularly in high-rise urban buildings where signal attenuation, pilot contamination, and architectural obstructions undermine network reliability and user experience. While Unmanned Aerial Vehicles (UAVs) provide a flexible means of acquiring external RF measurements, inferring the interior signal landscape solely from these sparse and non-invasive observations remains an open and pressing challenge.We propose SpiderGNN (Spatial-aware Predictive Inference with Dynamic Edge Reasoning Graph Neural Network), a topology-adaptive GNN framework for reconstructing indoor 5G signal quality from sparse UAV-based external observations. Unlike conventional distance-based graphs, SpiderGNN builds sparse structures dynamically using attention-derived feature affinity, enabling better modeling of the non-Euclidean nature of signal propagation in complex building environments.Built upon this learned topology, a residual Graph Attention Network (GAT) encoder propagates multi-hop signal semantics, followed by dual decoding branches tailored to the distinct physical characteristics of RSSI and CQI. To enhance stability and generalization, an ensemble-based fusion layer aggregates predictions across multiple stochastic runs.Empirical evaluation on a real-world, multi-floor 5G dataset demonstrates that SpiderGNN achieves substantial improvements over state-of-the-art location-aware baselines, reducing RMSE by 76% for RSSI and 89% for CQI, while attaining coefficient of determination (R\(^2\)) scores exceeding 0.99 on both metrics.By uniting sparse UAV sensing, non-Euclidean graph modeling, and spatially contextual inference, SpiderGNN establishes a scalable and non-intrusive paradigm for indoor signal estimation. The framework offers a technically grounded and practically deployable solution to urban-scale wireless planning, bridging the longstanding gap between outdoor sensing and indoor coverage prediction. -
Contrastive Representation Learning of Floor Plan Images Using Human Annotated Attributed Graphs
Ibuki Uda, Tomonobu OzakiIn diesem Kapitel wird der wachsende Bedarf an fortschrittlichen Technologien zur Abfrage von Grundrissen untersucht, die auf unterschiedliche Kundenpräferenzen zugeschnitten sind und über traditionelle Kennzahlen wie die Raumgröße hinausgehen. Die Studie stellt einen neuartigen Ansatz zur Vektorisierung von Grundrissen unter Verwendung feinkörniger, zugeordneter Subgraphfunktionen vor, der kontrastives Lernen nutzt, um die Abrufgenauigkeit zu erhöhen. Schlüsselthemen sind die Herausforderungen der manuellen Annotation und die Grenzen bestehender Deep-Learning-Modelle bei der Erfassung detaillierter Grundriss-Attribute. Die vorgeschlagene Methode umfasst die Umwandlung von Grundriss-Bildern in zugeordnete Graphen und die Schulung eines Vektorencoders unter Verwendung eines kontrastiven Lernrahmens, der auf Drillingsverlust beruht. Die Studie bewertet die Effektivität dieses Ansatzes durch verschiedene Experimente und vergleicht verschiedene Modellkonfigurationen und Folgerungsmethoden. Die Ergebnisse zeigen die überlegene Leistung der Methode bei der Erfassung strukturell bedingter Zustände und zeigen zugleich Bereiche auf, in denen Verbesserungen im Umgang mit nichtstrukturellen und lokalisierten Merkmalen möglich sind. Das Kapitel schließt mit einer Diskussion über zukünftige Richtungen, in der die Notwendigkeit automatisierter Annotationstechniken und die Integration multimodaler Informationen betont wird, um die Grundriss-Abrufsysteme weiter zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn recent years, increasingly diverse customer values and lifestyles in housing selection have underscored the need for flexible floor plan retrieval systems that reflect subjective perspectives such as storage sufficiency, circulation efficiency, and spatial connectivity. However, conventional retrieval approaches based on labeled graphs struggle to represent fine-grained spatial structures and room attributes, leading to limited accuracy and flexibility. To address these limitations, we model each floor plan as an attributed graph that encodes both inter-room connections and room-specific attributes, and we define twelve customer-oriented conditions as the presence or absence of characteristic subgraphs. We then propose a vectorization framework that combines ResNet-18 image features with these condition vectors in a contrastive-learning paradigm. The resulting embedding space places floor plans with similar conditions in close proximity. Experiments show superior classification performance on several conditions, confirming the effectiveness of the proposed approach. -
AgentLesson: LLM-Based Multi-agent System for Educational Lesson Plan Generation
Yakun Chen, Yu Yang, Guandong XuAgentLesson führt ein bahnbrechendes Multi-Agent-System ein, das die Erstellung von Unterrichtsplänen revolutionieren soll. Durch die Nutzung großer Sprachmodelle (LLMs) erleichtert dieses innovative Rahmenwerk die Zusammenarbeit zwischen einem Schreiberagenten und einem Beurteilungsagenten und gewährleistet iterative Verfeinerung und verbesserte pädagogische Qualität. Die einzigartige Architektur des Systems ermöglicht strukturiertes Feedback und dynamische Stoppkriterien, was es für den Einsatz in der realen Welt äußerst praktisch macht. Durch umfangreiche Experimente konnte gezeigt werden, dass die Zusammenarbeit mit Multiagenten die Qualität der Unterrichtspläne deutlich verbessert, insbesondere in Dimensionen wie Tiefe und Relevanz. Dieser Ansatz stimmt nicht nur die Unterrichtsinhalte mit den Bildungsstandards ab, sondern stellt auch sicher, dass die Pläne sowohl praxisnah als auch ansprechend sind. Die Fähigkeit, sich innerhalb weniger Runden anzunähern, und die detaillierte Analyse pädagogischer Dimensionen machen das Rahmenwerk zu einem bedeutenden Beitrag auf dem Gebiet der Bildungstechnologie.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractRecent advancements in Large Language Models (LLMs) have demonstrated their potential in automating pedagogical content generation. However, the design and evaluation of high-quality lesson plans still require iterative refinement and pedagogical alignment. In this paper, we propose AgentLesson, a multi-agent framework that simulates human-like collaboration between a Writer Agent and an Evaluator Agent to iteratively generate and improve lesson plans. Given a subject, grade, and topic, the Writer Agent creates an initial plan based on Gagné’s Nine Events of Instruction, while the Evaluator Agent provides rubric-based feedback across five dimensions: Clarity, Integrity, Depth, Practicality, and Pertinence. This feedback is used to guide the Writer Agent in multiple rounds of refinement. We conduct extensive experiments across multiple subjects and topics, and quantitatively evaluate plan quality under single-agent, one-round, and multi-round agent settings. Our results show that multi-agent collaboration significantly enhances lesson quality, with notable improvements in Depth and Pertinence. This work highlights the promise of LLM-based agent collaboration in educational content creation and opens new directions for teacher-assistive technologies. -
Bridging Dependency Enhanced Counterfactual Supporting for Multi-hop Question Generation
Kaixi Hu, Lin Li, Haohan Zhang, Jianwei Zhang, Xiaohui TaoDieses Kapitel vertieft sich in die Feinheiten der Generierung von Multi-Hop-Fragen, eine Aufgabe, die die Synthese mehrerer Beweisstücke aus verschiedenen Passagen erfordert, um faktisch kohärente Fragen zu stellen. Die Autoren heben die Herausforderungen hervor, die sich aus der Komplexität von Multihop-Fragen ergeben, die ein tiefgreifendes Verständnis der Beziehungen zwischen unzusammenhängenden Informationen und komplizierten Verbindungen zwischen Entitäten erfordern. Um diesen Herausforderungen zu begegnen, wird in diesem Kapitel eine modellagnostische Methode namens CS2MQG eingeführt, die kontrafaktische Unterstützung bei der Überbrückung von Abhängigkeitsinvarianz einsetzt. Dieser Ansatz konzentriert sich auf wichtige Überbrückungsknoten innerhalb von Kausalketten und erzeugt synthetische Gegenfaktoren, um die Anpassungsfähigkeit und Leistung des Modells zu verbessern. Das Kapitel bietet einen umfassenden Überblick über die Methode, einschließlich der Identifizierung wichtiger Überbrückungsknoten, der Generierung kontrafaktischer Unterstützungen und des Trainingsprozesses. Experimentelle Ergebnisse zeigen signifikante Verbesserungen der Leistung von fünf MQG-Modellen auf dem Hotpot-QS-Datensatz, wobei die Verbesserungen zwischen 2,3% und 4,5% liegen. Das Kapitel untersucht auch die Wirksamkeit der Methode auf große Sprachmodelle (Large Language Modells, LLMs) und ihre Übertragbarkeit auf neue Datenverteilungen. Durch detaillierte Experimente und Vergleiche mit traditionellem, feindseligem Lernen zeigen die Autoren die Überlegenheit ihres Ansatzes im Umgang mit komplexen Argumentationsketten und bei der Verbesserung der Qualität von Mehrfachfragen. Dieses Kapitel bietet wertvolle Einsichten für Fachleute, die den Stand der Technik bei der Generierung von Multi-Hop-Fragen und verwandten Anwendungen vorantreiben wollen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractMulti-hop Question Generation (MQG) aims to create questions that require synthesizing multiple, dispersed pieces of supporting evidence from different passages. The fundamental challenge lies in the dependence among different reasoning steps where each step relies on the preceding one. Traditional approaches generally rely on learning observed dependency during the training process, which limits their adaptability to value-changed instances in the reasoning chains. To this end, we propose a model-agnostic method, termed CS2MQG, that employs Counterfactual Supporting with bridging dependency prototype invariance for Multi-hop Question Generation. Specifically, we focus on key bridging nodes with high centrality or rich contextual information. And then, the counterfactuals are systematically generated by keeping the node type while modifying its value. Through the reassignment of these nodes, new causal relationships will be introduced into models, ensuring the generated questions are accurately centered around these nodes. Experiments conducted on the widely used HotpotQA and MuSiQue datasets demonstrate that CS2MQG consistently improves the performance of five state-of-the-art MQG models in terms of BLEU, METEOR, and ROUGE scores. And, our counterfactuals also enhance the performance of zero-shot MQG. -
NLCC: Noisy Label Correction with CLIP for Robust Few-Shot Learning
Bowen Han, Shizhuo Deng, Jiaqi Chen, Zehua Gan, Dongyue Chen, Yue ZhuDieses Kapitel geht auf die Herausforderungen ein, die von lauten Etiketten in wenigen Schritten herrühren, insbesondere im Kontext sozialer Netzwerke, in denen benutzergenerierte Inhalte häufig Ungenauigkeiten enthalten. Die Studie stellt NLCC vor, eine neuartige Methode, die CLIP für die verrauschte Etikettenkorrektur nutzt und zur Verbesserung der Datenqualität ein mehrstufiges Bewertungsmodul verwendet. Der Text untersucht die Grenzen bestehender Lernmethoden mit wenigen Schritten im Umgang mit lauten Etiketten und präsentiert einen detaillierten Überblick über das NLCC-Rahmenwerk, einschließlich seines Feinabstimmungsprozesses und seiner Strategie der Mehrmarkengewichtung. Durch umfangreiche Experimente an verschiedenen Datensätzen zeigt die Studie die Wirksamkeit des NLCC bei der Verbesserung der Robustheit und Genauigkeit von Modellen. Das Kapitel schließt mit einer Diskussion über die möglichen Anwendungen des NLCC in Prototypen-Netzwerken und zukünftige Forschungsrichtungen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn social media crowdsourced annotation, image-text multimodal data grows rapidly, but user-generated labels often contain noise (e.g., mislabeling a wolf as a husky). This issue is particularly prominent during the cold start phase of new users, where few-shot data with noisy labels exerts a more significant influence due to the limited data for robust learning. To address this, we propose a multimodal approach for correcting noisy labels. First, we leverage the image-text matching capability of the pre-trained CLIP model to filter mismatched multimodal data and correct erroneous labels via similarity metrics. However, since CLIP’s correction results are not entirely accurate, we introduce a multi-label mechanism that incorporates the top-k labels filtered by CLIP with weighted integration into training, forming a plug-and-play multimodal noisy label correction method. This provides a solution to the cold start problem with noisy behaviors. We embedded our method in 11 datasets and two classic methods, and experimental results validate its effectiveness. -
Quantifying Off-Ball Attacking Contribution in Football: A GCN-LSTM Approach Supervised by Expert Assessments
Daiki Yoshikawa, Tomonobu OzakiDiese Studie untersucht den kritischen, aber oft übersehenen Aspekt der Beiträge abseits des Fußballs. Durch die Nutzung eines ausgeklügelten GCN-LSTM-Modells quantifiziert es die Auswirkungen der Abseits-Aktionen der Spieler, die den Großteil der Spielzeit ausmachen. Die Studie erstellt einen umfassenden Datensatz, der sich aus Nachverfolgungs- und Ereignisdaten professioneller Spiele der J. League zusammensetzt und von Experten kommentiert wird. Es führt innovative Techniken zur Datenerweiterung ein, um die Robustheit von Modellen zu verbessern, und adressiert die Herausforderung einer unausgewogenen Datenverteilung. Die Studie bewertet die Leistung des Modells sowohl durch Regressions- als auch durch Klassifizierungsaufgaben und zeigt seine Effektivität im Einklang mit Expertenurteilen. Schlüsselergebnisse unterstreichen die Bedeutung räumlicher Merkmale wie Zoneid bei der Identifizierung hochwertiger Spiele und die Notwendigkeit weiterer Verbesserungen bei der Erkennung negativer Spiele. Diese Forschung bietet eine neuartige Perspektive der Spielerbewertung und betont den Kontext des Spiels und die Integration von Expertenwissen in maschinelle Lernmodelle.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractAccurate evaluation of off-ball player contributions in soccer remains a critical challenge, as players spend the majority of match time without possession. While existing performance models focus predominantly on on-ball actions, they often overlook the subtle, context-dependent movements that influence team success. This study presents a machine learning framework for evaluating off-ball player contributions during attacking sequences, grounded in expert annotations. We construct a graph-based dataset from tracking and event data of J. League matches, and train a model combining Graph Convolutional Networks (GCN) and Long Short-Term Memory (LSTM) networks to capture both spatial and temporal aspects of play. To improve model robustness under limited and imbalanced data, we additionally applied data augmentation techniques such as mirroring, time shifting, and controlled noise addition. Evaluation experiments show that the model not only aligns well with expert judgments but also effectively identifies high-quality plays when trained under strategically filtered conditions. These findings suggest that our method offers interpretable, context-aware evaluations of off-ball player behavior, contributing to more comprehensive soccer analytics. -
Optimizing Urban Commercial Landscapes with POI Strategic Group Analysis: A Meta-learning Hypergraph Approach
Jiaqi Jiang, Xin Lin, Jiahui Jin, Siyuan Huang, Haoyu Chen, Xigang SunDieses Kapitel untersucht die Optimierung urbaner Wirtschaftslandschaften durch strategische Gruppenanalysen von Sonderzielen (POIs) unter Verwendung eines Meta-Learning-Hypergraphen-Ansatzes. Der Text geht den Herausforderungen bei der Modellierung multidimensionaler strategischer Gruppenbeziehungen und der Knappheit gekennzeichneter Trainingsdaten nach. Es führt ein neuartiges Meta-Learning-Modell ein, das auf dem Hypergraph Conditional Neural Process (HCNP) basiert, um wettbewerbsfähige strategische POI-Gruppen zu entdecken und diese Herausforderungen wirksam anzugehen. Die Methodik beinhaltet die Konstruktion eines heterogenen städtischen Hypergraphen, um Beziehungen höherer Ordnung zwischen POIs zu erfassen, und die Verwendung eines zweistufigen Hypergraphen-Encoders, um diese Beziehungen zu modellieren. Die Fallstudie in New York City zeigt die praktische Anwendbarkeit des HCNP-Modells bei der Identifizierung konkurrierender POI-Gruppen in Szenarien mit wenigen Einstellungen. Das Kapitel schließt mit einer umfassenden Validierung des HCNP-Modells auf drei Datensätzen aus der realen Welt, die seine Effektivität bei der Verbesserung von Stadtplanung und Wirtschaftsentwicklungsstrategien aufzeigt.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe rapid growth of urban data presents significant opportunities for optimizing resource allocation and economic strategies, yet traditional strategic group analysis overlooks location-specific factors crucial for urban planning. We focus on POI-level strategic group analysis, leveraging semantic and spatial information. However, modeling multi-dimensional strategic relationships is challenging and is further hindered by the limited availability of labeled data. To address these issues, we propose a novel framework, the Hypergraph Conditional Neural Process (HCNP). We represent POI relationships using a heterogeneous urban hypergraph, where strategic group interactions are formulated as hyperedges connecting similar POIs. Additionally, we enhance the meta-learning process with auxiliary tasks to improve performance in sparse data settings. Experiments on three city-wide datasets validate the effectiveness of our approach, offering valuable insights for urban planning and sustainable economic growth. -
DCSN: Dynamic Calibration and Contrastive Sharpening for MultiModal Recommendation
Jicheng Sun, Shuai Xu, Yicong LiIm Zeitalter der Informationsflut spielen Empfehlungssysteme eine entscheidende Rolle bei der Vorhersage von Nutzerinteressen. Herkömmliche Systeme leiden jedoch häufig unter Datenspärlichkeit und versäumen es, die reichhaltigen multimodalen verfügbaren Informationen zu nutzen. In diesem Kapitel wird das DCSN-Rahmenwerk vorgestellt, das diese Herausforderungen durch dynamische Kalibrierung und kontrastive Schärfung angeht. Das Rahmenwerk nutzt einen Co-Interaktiven Gating-Mechanismus, um modale Merkmale dynamisch mit dem Verhaltenskontext zu kalibrieren und die anfänglichen Inputs zu verbessern. Anschließend greift das DMCC-Modul nach der Graphenausbreitung ein, um die Darstellungen zu schärfen und wichtige personalisierte Merkmale wiederherzustellen. Experimentelle Ergebnisse an zwei öffentlichen Datensätzen zeigen, dass DCSN mehrere Basismodelle übertrifft und signifikante Verbesserungen bei wichtigen Empfehlungsgrößen erzielt. Das Kapitel bietet auch einen umfassenden Überblick über verwandte Arbeiten im Bereich multimodaler Empfehlungen und kontrastiven Lernens und hebt die innovativen Aspekte des vorgeschlagenen Rahmens hervor. Durch die Lektüre dieses Kapitels erhalten Fachleute Einblicke in die neuesten Fortschritte bei multimodalen Empfehlungssystemen und lernen, wie man dynamische Kalibrierung und kontrastive Schärfung anwendet, um Empfehlungsgenauigkeit und -umfang zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractMultimodal Recommender Systems (MMRS) alleviate data sparsity and enhance item understanding by integrating auxiliary information, such as images and text, making them a prominent research direction. However, they face two limitations. Traditional models typically statically concatenate an item’s modal and behavioral features, restricting the effective utilization of its key physical attributes for improving recommendation accuracy. Additionally, graph propagation can induce representation over-smoothing; after several rounds of information aggregation, the representations of modally-similar items homogenize. This process masks critical personalized features that attract specific users, thereby diminishing the discriminative power necessary for precise recommendations. To address these limitations, we propose a novel framework for multimodal recommendation, the Dual Calibration and Sharpening Network (DCSN). This framework operates on a two-stage calibration-sharpening paradigm to optimize feature fusion and representation quality. For calibration, DCSN employs a collaborative interaction gating module where an item’s physical attributes serve as dynamic contexts to reshape its core behavioral representation, thus overcoming static fusion limitations. To counteract representation over-smoothing, the sharpening stage introduces a Decoupled Modal Contrastive Control (DMCC) module. This module utilizes a combined contrastive and reconstruction loss to refine the modal representations, maximizing their discriminative power while enhancing robustness. Extensive experiments conducted on two public datasets validate the effectiveness of our method. -
Echoes or Adversaries? Asymmetric Polarization in Elite Digital Communication
Meng-Jie Wang, Xiao-Cui Zhang, Lin QiuDieses Kapitel taucht in die komplexe Welt der digitalen Elitekommunikation in den USA ein. Politik, wobei der Schwerpunkt auf den Zwischenwahlen 2018 und 2022 liegt. Darin wird untersucht, wie sich Senatskandidaten beider großer Parteien auf Twitter / X mit ihren Verbündeten und Gegnern auseinandersetzen, was einen krassen Gegensatz zwischen innerparteilichem Zusammenhalt und innerparteilicher Feindseligkeit offenbart. Die Studie nutzt soziale Netzwerk- und Stimmungsanalysen, um den emotionalen Ton und die Konnektivitätsmuster der Tweets der Kandidaten zu quantifizieren, was einen beunruhigenden Trend zunehmender affektiver Polarisierung aufzeigt. Bemerkenswert ist, dass das Kapitel asymmetrische Polarisierungsstrategien aufdeckt, bei denen demokratische Kandidaten über Parteigrenzen hinweg ein einheitlicheres Engagement aufrechterhalten, während republikanische Kandidaten eine signifikante Verschiebung in Richtung innerparteilicher Konsolidierung aufweisen. Die Ergebnisse deuten auf eine sich vertiefende Kluft zwischen den Parteien hin, was Auswirkungen auf die überparteiliche Zusammenarbeit und das Vertrauen der Öffentlichkeit in demokratische Institutionen hat. Diese Analyse bietet einen einzigartigen Einblick in die sich entwickelnde Dynamik affektiver Polarisierung auf Eliteebene im digitalen Zeitalter und bietet wertvolle Erkenntnisse für das Verständnis der umfassenderen Implikationen politischer Kommunikation in einer polarisierten Landschaft.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractWhile numerous studies have examined affective polarization, much of that work has centered on public opinion or voter engagement within traditional media contexts at a single point, leaving it unclear how these dynamics unfold in peer-level interactions among political elites in digital spaces. Moving beyond conventional approaches, here we leverage social network and sentiment analysis on Twitter/X corpora spanning both the 2018 and 2022 U.S. Senate elections, exploring: a) how Senate candidates engage with partisan allies versus ideological rivals online, and b) to what extent the emotional tenor of both intra-party and cross-party discourse shifts over time. While tightly knit networks formed on both political fronts, where connections within consistently surpassed those beyond, the results reveal a notable divergence across electoral cycles, with Democrats increasingly extending their outreach – frequently marked by negative tones – whereas Republicans significantly concentrated on reinforcing their bonds, characterized by substantial positive messaging. Given the enduring role of elite messaging in shaping political norms, these findings illuminate the dynamics of asymmetric ideological division, shedding light on the evolving trajectories through which political figures forge alliances or confront adversaries via social media networks from the Trump to Biden era.
- Titel
- Behavioural and Social Computing
- Herausgegeben von
-
Tianyong Hao
Juan Velásquez
Qing Li
Bin Hu
Guandong Xu
- Copyright-Jahr
- 2026
- Verlag
- Springer Nature Singapore
- Electronic ISBN
- 978-981-9571-38-3
- Print ISBN
- 978-981-9571-37-6
- DOI
- https://doi.org/10.1007/978-981-95-7138-3
Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.