Zum Inhalt

Behavioural and Social Computing

12th International Conference, BESC 2025, Hong Kong SAR, China, October 16–18, 2025, Proceedings, Part I

  • 2026
  • Buch

Über dieses Buch

Dieser dreibändige Satz LNCS 16431-16433 stellt die referierten Beiträge der 12. Internationalen Konferenz für Verhaltens- und Sozialrechnen BESC 2025 dar, die vom 16. bis 18. Oktober 2025 in Hongkong SAR, China, stattfand. Die 18 vollständigen und 5 kurzen Beiträge in diesem Band wurden sorgfältig geprüft und aus 149 Einreichungen ausgewählt. Diese Aufsätze konzentrieren sich auf verschiedene Aspekte des Social Computing, der angewandten Psychologie, des Verhaltensmusterlernens, der Text- und Sentimentanalyse, des Graphenlernens, der KI in der Bildung und der KI für das soziale Wohl.

Inhaltsverzeichnis

Nächste
  • current Page 1
  • 2
  1. Frontmatter

  2. Early Detection of Fake News Based on Sequential Analysis of Social Context and Adaptive Thresholding

    Jianwei Zhang, Soma Tani, Lin Li
    Dieses Kapitel vertieft sich in die kritische Frage der Erkennung von Fake News und konzentriert sich auf die frühen Stadien der Nachrichtenverbreitung. Sie führt eine neue Methode ein, die sequenzielle Analysen des sozialen Kontextes und adaptive Schwellenwerte nutzt, um die Klassifizierungsleistung zu verbessern. Die Studie kombiniert statische Nachrichteninhalte mit sich zeitlich verändernden sozialen Interaktionen und nutzt dabei das gemeinsame Lernen, um die Robustheit zu erhöhen. Experimente mit zwei Datensätzen aus der realen Welt, FakeNewsNet und Fakeddit, zeigen die Wirksamkeit der vorgeschlagenen Methode, insbesondere in frühen Erkennungsstadien. Die Ergebnisse zeigen, dass die Methode die Basisansätze übertrifft, was die Bedeutung dynamischer Schwellenanpassungen und multimodaler Integration unterstreicht. In diesem Kapitel werden auch die Grenzen und zukünftigen Richtungen für die Verbesserung der Rahmenwerke zur Erkennung von Fake News diskutiert, um eine hohe Genauigkeit während des gesamten Lebenszyklus der Nachrichtenverbreitung zu gewährleisten.
  3. Accelerating High-Dimensional Expensive Multi-objective Optimization via Surrogate-Assisted Fuzzy Directed Sampling

    Zihua Guo, Min-Rong Chen, Jixiang Zeng, Zeyan Zhang, Songxiang Zhong
    Dieses Kapitel vertieft die Komplexität multiobjektiver Optimierungsprobleme (MOPs), insbesondere derjenigen, die hochdimensionale Entscheidungsvariablen und rechnerisch kostspielige Auswertungen betreffen. Die Autoren stellen einen neuartigen Ansatz namens FDSEMO vor, der ersatzweise unterstützte evolutionäre Algorithmen mit unscharfem, gerichtetem Sampling kombiniert, um Optimierungsprozesse zu verbessern. Das Kapitel beginnt mit der Definition von MOPs und ihrer Verbreitung in Bereichen wie künstlicher Intelligenz, Terminplanung und Ökonomie. Anschließend werden die Herausforderungen untersucht, die durch kostspielige multiobjektive Optimierungsprobleme (EMOPs) und die Beschränkungen bestehender Surrogat-unterstützter Evolutionsalgorithmen (SAEAs) entstehen. Der vorgeschlagene FDSEMO-Algorithmus ist detailliert und hebt seine Komponenten hervor: adaptive Surrogat-assistierte Evolution, gerichtete Probenahme, verschwommener Betrieb und ökologische Selektion. Die Autoren präsentieren umfassende experimentelle Ergebnisse und vergleichen FDSEMO mit sechs hochmodernen Algorithmen zu verschiedenen Benchmarks. Die Ergebnisse zeigen die überlegene Leistung von FDSEMO bei der Erreichung guter Konvergenz und Vielfalt der Lösungen. Zusätzlich bestätigen Ablationsexperimente die Effektivität der unscharf gesteuerten Probenahmestrategie. Das Kapitel schließt mit der Diskussion potenzieller Verbesserungen und zukünftiger Forschungsrichtungen für FDSEMO und betont seine Anwendbarkeit auf Probleme der realen Welt.
  4. An Improved Large-Scale Multi-objective Competitive Swarm Optimizer Based on Harris Hawks Optimization

    Jixiang Zeng, Min-Rong Chen, Zihua Guo, Zeyan Zhang, Songxiang Zhong
    In diesem Kapitel wird ein erweiterter, multiobjektiver Schwarm-Optimierer vorgestellt, der auf Harris Hawks Optimization (LMOHHO) basiert. Der Text vertieft sich in die mathematischen Definitionen multiobjektiver Probleme und die Herausforderungen, die sich aus groß angelegten multiobjektiven Optimierungsproblemen (LSMOPs) ergeben. Es untersucht die Stärken und Schwächen bestehender Algorithmen wie CSO und HHO und präsentiert einen neuartigen Algorithmus, der das Beste aus beiden Welten kombiniert. Die experimentelle Studie bewertet die Leistung von LMOHHO anhand von sechs hochmodernen multiobjektiven evolutionären Algorithmen (MOEAs) auf verschiedenen Benchmark-Suiten und demonstriert seine überlegenen Such- und Konvergenzfähigkeiten. Die Ergebnisse unterstreichen die Effektivität von LMOHHO bei der Lösung komplexer Optimierungsprobleme und machen es zu einem wertvollen Werkzeug für Fachleute in Bereichen, die fortgeschrittene Optimierungstechniken erfordern.
  5. Multimodal Multiobjective Optimization Algorithm Based on Two-Stage Proportional Selection

    Zeyan Zhang, Min-Rong Chen, Jixiang Zeng, Zihua Guo, Songxiang Zhong
    Dieses Kapitel vertieft die Komplexität multimodaler multiobjektiver Optimierungsprobleme (MMOPs), die im Engineering Design, in der Ressourcenallokation und im maschinellen Lernen weit verbreitet sind. Die zentrale Herausforderung besteht darin, mehrere sich widersprechende Ziele gleichzeitig zu optimieren, wie etwa die Maximierung der Produktleistung bei gleichzeitiger Minimierung der Kosten. Das Kapitel stellt einen neuen Algorithmus vor, MMEA-TSPS, der eine zweistufige Methode der proportionalen Selektion anwendet, um diese Probleme effektiv zu lösen. Der Algorithmus unterteilt die Bevölkerung in Unterpopulationen, um verschiedene Pareto-Gruppen (PSs) zu erforschen, und verwendet einen zweistufigen Selektionsansatz, um Diversität und Konvergenz auszugleichen. Experimentelle Ergebnisse an 28 Testinstanzen aus CEC2019 und IDMP-Testsuiten zeigen, dass MMEA-TSPS sieben hochmoderne Algorithmen sowohl in Entscheidungs- als auch in Objektivräumen übertrifft. Das Kapitel enthält auch eine Parametersensitivitätsanalyse, um optimale Werte für die Parameter des Algorithmus zu ermitteln. Die Ergebnisse unterstreichen die Robustheit und Anpassungsfähigkeit des Algorithmus und machen ihn zu einem vielversprechenden Werkzeug für die Lösung von MMOPs in verschiedenen Anwendungen in der realen Welt.
  6. A Multidimensional Sentiment Analysis Model for Experience Assessment

    Wanwan Zheng, Yang Li, Koji Makino, Katsuhisa Yoshikawa, Kunihiko Hara, Hiroshi Shibata, Hideki Ohira
    Dieses Kapitel untersucht die Entwicklung und Bewertung eines multidimensionalen Stimmungsanalysemodells zur Bewertung des Erfahrungswertes in Verbraucherinteraktionen. Die Studie befasst sich mit den Grenzen traditioneller Marketingstrategien und der wachsenden Bedeutung emotionaler Resonanz bei der Entscheidungsfindung der Verbraucher. Schlüsselthemen sind die Konzeptualisierung des Erlebnismarketings, die Rolle von Emotionen bei der Entscheidungsfindung und die Herausforderungen bei der Erfassung und Quantifizierung emotionaler Reaktionen. Das Kapitel vertieft auch die Methodik zur Entwicklung des Stimmungsanalysemodells, einschließlich der Datenerhebung, Feinabstimmungsprozesse und experimenteller Bewertungen. Die Ergebnisse zeigen die Effektivität des Modells bei der Erfassung nuancierter emotionaler Muster und der Reproduktion der strukturellen Eigenschaften menschlicher Affekte, einschließlich emotionaler Opposition und Ausgeglichenheit. Die Ergebnisse unterstreichen die Eignung des Modells für Aufgaben der Stimmungsanalyse und sein Potenzial, erfahrungsgetriebene Anwendungen zu verbessern. Das Kapitel schließt mit einer Diskussion zukünftiger Forschungsrichtungen wie dem lingualen Transfer und der Einbeziehung von Fehler- und Interpretationsanalysen.
  7. Discrete-Time Sigma-Delta Modulator Coefficient Optimization via Soft Actor-Critic Reinforcement Learning

    Wanli Zhao, Junpeng Zhang, Zhenyu Rao, Chen Yang, Minglei Tong, Yongqing Sun
    Dieses Kapitel untersucht die Optimierung diskreter Sigma-Delta-Modulator (SDM) -Koeffizienten mithilfe von Soft Actor-Critic (SAC) -Verstärkungslernen. Traditionelle linearisierte Modellierungsmethoden stehen bei der Umsetzung von Schaltkreisen in der realen Welt aufgrund von Nicht-Idealitäten und praktischen Beschränkungen vor Herausforderungen. Der vorgeschlagene SAC-basierte Ansatz bietet eine datengestützte Alternative, die diese Komplexität effektiv bewältigen kann. Das Kapitel beschreibt die Implementierungsarchitektur, einschließlich der Interaktion zwischen dem SAC-Agenten, MATLAB-Skripten und Simulink-Modellen. Außerdem werden die Formulierung des Markov-Entscheidungsprozesses, die Koeffizient-zu-Schaltkreis-Kartierung und die Systemsimulation diskutiert. Simulationsergebnisse zeigen signifikante Verbesserungen des Signal-to-Noise-Verhältnisses (SNR) und der effektiven Anzahl von Bits (ENOB) im Vergleich zu herkömmlichen Methoden. Das Kapitel schließt mit einem Leistungsvergleich zwischen dem vorgeschlagenen Design und anderen kürzlich veröffentlichten Studien, in dem die Vorteile des SAC-basierten Ansatzes bei der Erreichung eines hochpräzisen SDM-Designs hervorgehoben werden.
  8. Anomaly Detection Method for Tabular Data Based on a Three-Phase Learning Paradigm

    Yufei Li, Hongtao Song, Qilong Han
    Dieses Kapitel untersucht eine bahnbrechende Methode zur Erkennung von Anomalien in tabellarischen Daten, wobei der Schwerpunkt auf einem dreiphasigen Lernparadigma liegt, das Automatisierung und Genauigkeit verbessert. In der ersten Phase wird ein genetischer Algorithmus für die Datenauswahl und Erstkennzeichnung eingeführt, wodurch manuelle Eingriffe überflüssig werden. In der zweiten Phase wird ein verbesserter Etikettenvermehrungsalgorithmus eingesetzt, um die Etikettenspärlichkeit und das Datenungleichgewicht zu beheben. In der dritten Phase wird eine iterative Strategie zur Erzeugung von Pseudo-Labels vorgeschlagen, die die Rekonstruktion von Autoencoderfunktionen und PU-Lernkonzepte nutzt, um ein leistungsstarkes Anomalieerkennungsmodell zu schulen. Das Kapitel diskutiert auch die Methodik, einschließlich Datendekomposition, Berechnung des Fitness-Scores und die allgemeine Architektur des vorgeschlagenen Modells. Experimentelle Ergebnisse an fünf Datensätzen aus der realen Welt zeigen die Überlegenheit dieser Methode im Vergleich zu neun hochmodernen Anomalien-Erkennungsmethoden, was ihre Wirksamkeit und Praktikabilität unterstreicht. Durch die Integration dieser innovativen Techniken bietet das Kapitel eine umfassende Lösung zur Verbesserung der Datenqualitätssicherung in verschiedenen Branchen.
  9. GADM: Granularity-Aware Diffusion Model for Uncertainty Forecasting in Non-stationary Time Series

    Zhuhua Wang, Rui Chen, Hongtao Song, Qilong Han
    In diesem Kapitel wird das Granularity-Aware Diffusion Model (GADM) vorgestellt, ein neuartiger Ansatz zur Vorhersage von Unsicherheit in nicht-stationären Zeitreihen. Das Modell adressiert die Beschränkungen traditioneller Methoden, indem es dynamische Granularitätszersetzung und störungsbewusste bedingte Kodierung einbezieht, was es in die Lage versetzt, mehrstufige Merkmale zu erfassen und nicht-stationäre Komponenten effektiv wiederherzustellen. Die Kernarchitektur von GADM besteht aus drei Schlüsselmodulen: Dynamic Granularity Decomposition (DGD), Perturbation Restoration Conditional Encoder (PRCE) und Multi-Granularity Guided Diffusion Generator (MGDG). Diese Module arbeiten zusammen, um Zeitreihendaten in verschiedene Granularitätsstufen zu zerlegen, Prozessmerkmale zur Anpassung an Volatilität zu entwickeln und genaue Vorhersagen durch einen durch mehrere Granularitäten geführten Diffusionsprozess zu generieren. Die experimentellen Ergebnisse zeigen, dass GADM im Hinblick auf Vorhersagegenauigkeit und Quantifizierung der Unsicherheit, insbesondere im Umgang mit komplexen dynamischen Szenen, besser abschneidet als Basismodelle. Das Kapitel behandelt auch die Implementierung und Evaluierung von GADM, bietet Einblicke in seine Leistungsfähigkeit über verschiedene Datensätze hinweg und hebt seine Vorteile im Umgang mit nichtstationären Zeitreihendaten hervor.
  10. SpiderGNN: Spatial-Aware Predictive Inference with Dynamic Edge Reasoning for In-building 5G Signal Estimation

    Xingyi Gao, David Hason Rudd, Ziang Li, Yuming Guo, Huan Huo, Guandong Xu
    Das Kapitel stellt SpiderGNN vor, ein Rahmenwerk zur Vorhersage der 5G-Signalabdeckung in Innenräumen mittels von Drohnen gesammelter externer RF-Messungen. Sie befasst sich mit den Herausforderungen des eingebauten Signalabbaus und den Beschränkungen konventioneller Lösungen. Das Framework nutzt eine dynamische Graphenkonstruktion, um komplexe Signalausbreitungsmuster zu erfassen, und verwendet Dual-Task-Decodierung, um sowohl Signalstärke (RSSI) als auch -qualität (CQI) vorherzusagen. Experimentelle Ergebnisse zeigen signifikante Verbesserungen gegenüber Basismodellen mit einer deutlichen Verringerung von Vorhersagefehlern. In diesem Kapitel wird auch das Potenzial zukünftiger Verbesserungen diskutiert, wie etwa die Unterstützung mehrerer Frequenzbänder und die Integration zusätzlicher Indikatoren für die Servicequalität. Dieser innovative Ansatz bietet praktischen Nutzen für die Planung drahtloser Netzwerke und eröffnet neue Wege für die skalierbare, nicht-intrusive Modellierung der Abdeckung von Innenräumen.
  11. Contrastive Representation Learning of Floor Plan Images Using Human Annotated Attributed Graphs

    Ibuki Uda, Tomonobu Ozaki
    In diesem Kapitel wird der wachsende Bedarf an fortschrittlichen Technologien zur Abfrage von Grundrissen untersucht, die auf unterschiedliche Kundenpräferenzen zugeschnitten sind und über traditionelle Kennzahlen wie die Raumgröße hinausgehen. Die Studie stellt einen neuartigen Ansatz zur Vektorisierung von Grundrissen unter Verwendung feinkörniger, zugeordneter Subgraphfunktionen vor, der kontrastives Lernen nutzt, um die Abrufgenauigkeit zu erhöhen. Schlüsselthemen sind die Herausforderungen der manuellen Annotation und die Grenzen bestehender Deep-Learning-Modelle bei der Erfassung detaillierter Grundriss-Attribute. Die vorgeschlagene Methode umfasst die Umwandlung von Grundriss-Bildern in zugeordnete Graphen und die Schulung eines Vektorencoders unter Verwendung eines kontrastiven Lernrahmens, der auf Drillingsverlust beruht. Die Studie bewertet die Effektivität dieses Ansatzes durch verschiedene Experimente und vergleicht verschiedene Modellkonfigurationen und Folgerungsmethoden. Die Ergebnisse zeigen die überlegene Leistung der Methode bei der Erfassung strukturell bedingter Zustände und zeigen zugleich Bereiche auf, in denen Verbesserungen im Umgang mit nichtstrukturellen und lokalisierten Merkmalen möglich sind. Das Kapitel schließt mit einer Diskussion über zukünftige Richtungen, in der die Notwendigkeit automatisierter Annotationstechniken und die Integration multimodaler Informationen betont wird, um die Grundriss-Abrufsysteme weiter zu verbessern.
  12. AgentLesson: LLM-Based Multi-agent System for Educational Lesson Plan Generation

    Yakun Chen, Yu Yang, Guandong Xu
    AgentLesson führt ein bahnbrechendes Multi-Agent-System ein, das die Erstellung von Unterrichtsplänen revolutionieren soll. Durch die Nutzung großer Sprachmodelle (LLMs) erleichtert dieses innovative Rahmenwerk die Zusammenarbeit zwischen einem Schreiberagenten und einem Beurteilungsagenten und gewährleistet iterative Verfeinerung und verbesserte pädagogische Qualität. Die einzigartige Architektur des Systems ermöglicht strukturiertes Feedback und dynamische Stoppkriterien, was es für den Einsatz in der realen Welt äußerst praktisch macht. Durch umfangreiche Experimente konnte gezeigt werden, dass die Zusammenarbeit mit Multiagenten die Qualität der Unterrichtspläne deutlich verbessert, insbesondere in Dimensionen wie Tiefe und Relevanz. Dieser Ansatz stimmt nicht nur die Unterrichtsinhalte mit den Bildungsstandards ab, sondern stellt auch sicher, dass die Pläne sowohl praxisnah als auch ansprechend sind. Die Fähigkeit, sich innerhalb weniger Runden anzunähern, und die detaillierte Analyse pädagogischer Dimensionen machen das Rahmenwerk zu einem bedeutenden Beitrag auf dem Gebiet der Bildungstechnologie.
  13. Bridging Dependency Enhanced Counterfactual Supporting for Multi-hop Question Generation

    Kaixi Hu, Lin Li, Haohan Zhang, Jianwei Zhang, Xiaohui Tao
    Dieses Kapitel vertieft sich in die Feinheiten der Generierung von Multi-Hop-Fragen, eine Aufgabe, die die Synthese mehrerer Beweisstücke aus verschiedenen Passagen erfordert, um faktisch kohärente Fragen zu stellen. Die Autoren heben die Herausforderungen hervor, die sich aus der Komplexität von Multihop-Fragen ergeben, die ein tiefgreifendes Verständnis der Beziehungen zwischen unzusammenhängenden Informationen und komplizierten Verbindungen zwischen Entitäten erfordern. Um diesen Herausforderungen zu begegnen, wird in diesem Kapitel eine modellagnostische Methode namens CS2MQG eingeführt, die kontrafaktische Unterstützung bei der Überbrückung von Abhängigkeitsinvarianz einsetzt. Dieser Ansatz konzentriert sich auf wichtige Überbrückungsknoten innerhalb von Kausalketten und erzeugt synthetische Gegenfaktoren, um die Anpassungsfähigkeit und Leistung des Modells zu verbessern. Das Kapitel bietet einen umfassenden Überblick über die Methode, einschließlich der Identifizierung wichtiger Überbrückungsknoten, der Generierung kontrafaktischer Unterstützungen und des Trainingsprozesses. Experimentelle Ergebnisse zeigen signifikante Verbesserungen der Leistung von fünf MQG-Modellen auf dem Hotpot-QS-Datensatz, wobei die Verbesserungen zwischen 2,3% und 4,5% liegen. Das Kapitel untersucht auch die Wirksamkeit der Methode auf große Sprachmodelle (Large Language Modells, LLMs) und ihre Übertragbarkeit auf neue Datenverteilungen. Durch detaillierte Experimente und Vergleiche mit traditionellem, feindseligem Lernen zeigen die Autoren die Überlegenheit ihres Ansatzes im Umgang mit komplexen Argumentationsketten und bei der Verbesserung der Qualität von Mehrfachfragen. Dieses Kapitel bietet wertvolle Einsichten für Fachleute, die den Stand der Technik bei der Generierung von Multi-Hop-Fragen und verwandten Anwendungen vorantreiben wollen.
  14. NLCC: Noisy Label Correction with CLIP for Robust Few-Shot Learning

    Bowen Han, Shizhuo Deng, Jiaqi Chen, Zehua Gan, Dongyue Chen, Yue Zhu
    Dieses Kapitel geht auf die Herausforderungen ein, die von lauten Etiketten in wenigen Schritten herrühren, insbesondere im Kontext sozialer Netzwerke, in denen benutzergenerierte Inhalte häufig Ungenauigkeiten enthalten. Die Studie stellt NLCC vor, eine neuartige Methode, die CLIP für die verrauschte Etikettenkorrektur nutzt und zur Verbesserung der Datenqualität ein mehrstufiges Bewertungsmodul verwendet. Der Text untersucht die Grenzen bestehender Lernmethoden mit wenigen Schritten im Umgang mit lauten Etiketten und präsentiert einen detaillierten Überblick über das NLCC-Rahmenwerk, einschließlich seines Feinabstimmungsprozesses und seiner Strategie der Mehrmarkengewichtung. Durch umfangreiche Experimente an verschiedenen Datensätzen zeigt die Studie die Wirksamkeit des NLCC bei der Verbesserung der Robustheit und Genauigkeit von Modellen. Das Kapitel schließt mit einer Diskussion über die möglichen Anwendungen des NLCC in Prototypen-Netzwerken und zukünftige Forschungsrichtungen.
  15. Quantifying Off-Ball Attacking Contribution in Football: A GCN-LSTM Approach Supervised by Expert Assessments

    Daiki Yoshikawa, Tomonobu Ozaki
    Diese Studie untersucht den kritischen, aber oft übersehenen Aspekt der Beiträge abseits des Fußballs. Durch die Nutzung eines ausgeklügelten GCN-LSTM-Modells quantifiziert es die Auswirkungen der Abseits-Aktionen der Spieler, die den Großteil der Spielzeit ausmachen. Die Studie erstellt einen umfassenden Datensatz, der sich aus Nachverfolgungs- und Ereignisdaten professioneller Spiele der J. League zusammensetzt und von Experten kommentiert wird. Es führt innovative Techniken zur Datenerweiterung ein, um die Robustheit von Modellen zu verbessern, und adressiert die Herausforderung einer unausgewogenen Datenverteilung. Die Studie bewertet die Leistung des Modells sowohl durch Regressions- als auch durch Klassifizierungsaufgaben und zeigt seine Effektivität im Einklang mit Expertenurteilen. Schlüsselergebnisse unterstreichen die Bedeutung räumlicher Merkmale wie Zoneid bei der Identifizierung hochwertiger Spiele und die Notwendigkeit weiterer Verbesserungen bei der Erkennung negativer Spiele. Diese Forschung bietet eine neuartige Perspektive der Spielerbewertung und betont den Kontext des Spiels und die Integration von Expertenwissen in maschinelle Lernmodelle.
  16. Optimizing Urban Commercial Landscapes with POI Strategic Group Analysis: A Meta-learning Hypergraph Approach

    Jiaqi Jiang, Xin Lin, Jiahui Jin, Siyuan Huang, Haoyu Chen, Xigang Sun
    Dieses Kapitel untersucht die Optimierung urbaner Wirtschaftslandschaften durch strategische Gruppenanalysen von Sonderzielen (POIs) unter Verwendung eines Meta-Learning-Hypergraphen-Ansatzes. Der Text geht den Herausforderungen bei der Modellierung multidimensionaler strategischer Gruppenbeziehungen und der Knappheit gekennzeichneter Trainingsdaten nach. Es führt ein neuartiges Meta-Learning-Modell ein, das auf dem Hypergraph Conditional Neural Process (HCNP) basiert, um wettbewerbsfähige strategische POI-Gruppen zu entdecken und diese Herausforderungen wirksam anzugehen. Die Methodik beinhaltet die Konstruktion eines heterogenen städtischen Hypergraphen, um Beziehungen höherer Ordnung zwischen POIs zu erfassen, und die Verwendung eines zweistufigen Hypergraphen-Encoders, um diese Beziehungen zu modellieren. Die Fallstudie in New York City zeigt die praktische Anwendbarkeit des HCNP-Modells bei der Identifizierung konkurrierender POI-Gruppen in Szenarien mit wenigen Einstellungen. Das Kapitel schließt mit einer umfassenden Validierung des HCNP-Modells auf drei Datensätzen aus der realen Welt, die seine Effektivität bei der Verbesserung von Stadtplanung und Wirtschaftsentwicklungsstrategien aufzeigt.
  17. DCSN: Dynamic Calibration and Contrastive Sharpening for MultiModal Recommendation

    Jicheng Sun, Shuai Xu, Yicong Li
    Im Zeitalter der Informationsflut spielen Empfehlungssysteme eine entscheidende Rolle bei der Vorhersage von Nutzerinteressen. Herkömmliche Systeme leiden jedoch häufig unter Datenspärlichkeit und versäumen es, die reichhaltigen multimodalen verfügbaren Informationen zu nutzen. In diesem Kapitel wird das DCSN-Rahmenwerk vorgestellt, das diese Herausforderungen durch dynamische Kalibrierung und kontrastive Schärfung angeht. Das Rahmenwerk nutzt einen Co-Interaktiven Gating-Mechanismus, um modale Merkmale dynamisch mit dem Verhaltenskontext zu kalibrieren und die anfänglichen Inputs zu verbessern. Anschließend greift das DMCC-Modul nach der Graphenausbreitung ein, um die Darstellungen zu schärfen und wichtige personalisierte Merkmale wiederherzustellen. Experimentelle Ergebnisse an zwei öffentlichen Datensätzen zeigen, dass DCSN mehrere Basismodelle übertrifft und signifikante Verbesserungen bei wichtigen Empfehlungsgrößen erzielt. Das Kapitel bietet auch einen umfassenden Überblick über verwandte Arbeiten im Bereich multimodaler Empfehlungen und kontrastiven Lernens und hebt die innovativen Aspekte des vorgeschlagenen Rahmens hervor. Durch die Lektüre dieses Kapitels erhalten Fachleute Einblicke in die neuesten Fortschritte bei multimodalen Empfehlungssystemen und lernen, wie man dynamische Kalibrierung und kontrastive Schärfung anwendet, um Empfehlungsgenauigkeit und -umfang zu verbessern.
  18. Echoes or Adversaries? Asymmetric Polarization in Elite Digital Communication

    Meng-Jie Wang, Xiao-Cui Zhang, Lin Qiu
    Dieses Kapitel taucht in die komplexe Welt der digitalen Elitekommunikation in den USA ein. Politik, wobei der Schwerpunkt auf den Zwischenwahlen 2018 und 2022 liegt. Darin wird untersucht, wie sich Senatskandidaten beider großer Parteien auf Twitter / X mit ihren Verbündeten und Gegnern auseinandersetzen, was einen krassen Gegensatz zwischen innerparteilichem Zusammenhalt und innerparteilicher Feindseligkeit offenbart. Die Studie nutzt soziale Netzwerk- und Stimmungsanalysen, um den emotionalen Ton und die Konnektivitätsmuster der Tweets der Kandidaten zu quantifizieren, was einen beunruhigenden Trend zunehmender affektiver Polarisierung aufzeigt. Bemerkenswert ist, dass das Kapitel asymmetrische Polarisierungsstrategien aufdeckt, bei denen demokratische Kandidaten über Parteigrenzen hinweg ein einheitlicheres Engagement aufrechterhalten, während republikanische Kandidaten eine signifikante Verschiebung in Richtung innerparteilicher Konsolidierung aufweisen. Die Ergebnisse deuten auf eine sich vertiefende Kluft zwischen den Parteien hin, was Auswirkungen auf die überparteiliche Zusammenarbeit und das Vertrauen der Öffentlichkeit in demokratische Institutionen hat. Diese Analyse bietet einen einzigartigen Einblick in die sich entwickelnde Dynamik affektiver Polarisierung auf Eliteebene im digitalen Zeitalter und bietet wertvolle Erkenntnisse für das Verständnis der umfassenderen Implikationen politischer Kommunikation in einer polarisierten Landschaft.
Nächste
  • current Page 1
  • 2
Titel
Behavioural and Social Computing
Herausgegeben von
Tianyong Hao
Juan Velásquez
Qing Li
Bin Hu
Guandong Xu
Copyright-Jahr
2026
Verlag
Springer Nature Singapore
Electronic ISBN
978-981-9571-38-3
Print ISBN
978-981-9571-37-6
DOI
https://doi.org/10.1007/978-981-95-7138-3

Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.

    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Kumavision/© Kumavision, Noriis Network AG/© Noriis Network AG, tts GmbH/© tts GmbH, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data, Bild 1 Verspätete Verkaufsaufträge (Sage-Advertorial 3/2026)/© Sage, IT-Director und IT-Mittelstand: Ihre Webinar-Matineen in 2025 und 2026/© amgun | Getty Images