Knowledge Science, Engineering and Management
17th International Conference, KSEM 2024, Birmingham, UK, August 16–18, 2024, Proceedings, Part V
- 2024
- Buch
- Herausgegeben von
- Cungeng Cao
- Huajun Chen
- Liang Zhao
- Junaid Arshad
- Taufiq Asyhari
- Yonghao Wang
- Buchreihe
- Lecture Notes in Computer Science
- Verlag
- Springer Nature Singapore
Über dieses Buch
Über dieses Buch
The five-volume set LNCS 14884, 14885, 14886, 14887 & 14888 constitutes the refereed deadline proceedings of the 17th International Conference on Knowledge Science, Engineering and Management, KSEM 2024, held in Birmingham, UK, during August 16–18, 2024.
The 160 full papers presented in these proceedings were carefully reviewed and selected from 495 submissions. The papers are organized in the following topical sections:
Volume I: Knowledge Science with Learning and AI (KSLA)
Volume II: Knowledge Engineering Research and Applications (KERA)
Volume III: Knowledge Management with Optimization and Security (KMOS)
Volume IV: Emerging Technology
Volume V: Special Tracks
Inhaltsverzeichnis
-
Frontmatter
-
Special Track
-
Frontmatter
-
Adversary and Attention Guided Knowledge Graph Reasoning Based on Reinforcement Learning
Yanhua Yu, Xiuxiu Cai, Ang Ma, Yimeng Ren, Shuai Zhen, Jie Li, Kangkang Lu, Zhiyong Huang, Tat-Seng ChuaDieses Kapitel vertieft sich in die Feinheiten des Argumentierens von Wissensdiagrammen und hebt die Grenzen bestehender Methoden wie regelbasierter und auf Einbettung basierender Ansätze hervor. Es führt ein neuartiges Rahmenwerk ein, das feindseliges Lernen und Selbstaufmerksamkeitsmechanismen innerhalb eines verstärkten Lernzusammenhangs kombiniert, um die Herausforderungen unzureichender Exploration und umfangreicher Handlungsräume zu bewältigen. Durch den Einsatz eines gegnerischen Netzwerks, das den Agenten imitiert, und eines Selbstaufmerksamkeitsmechanismus, um irrelevante Handlungen herauszufiltern, verbessert die vorgeschlagene Methode die Effizienz und Interpretierbarkeit von Wissensdiagrammen. Experimentelle Ergebnisse zu Benchmark-Datensätzen zeigen die überlegene Leistung dieses Ansatzes und machen ihn zu einer wertvollen Ressource für Fachleute und Forscher, die sich für die Weiterentwicklung des Wissensdiagramms interessieren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractKnowledge Graph (KG) reasoning plays a crucial role in knowledge graph completion, as it involves the reasoning of unknown information based on the existing knowledge in the graph. Most current reasoning methods in reinforcement learning use a single-agent random walk. However, relying on a single agent is not sufficient, and training multi-agent to solve this problem is challenging. To overcome this obstacle, we propose an Adversary and Attention Guided Knowledge Graph Reasoning based on reinforcement learning framework (\({\textbf {A}}^2{\textbf {GKGR}}\)). Utilizing the Adversarially Guided Actor-Critic (AGAC) reinforcement learning architecture, we create an adversary for the agent that learns from the agent’s historical data. The agent gains the ability to discern its prediction region from that of its opponent by leveraging Kullback-Leibler (KL) divergence. This allows for a more extensive exploration of each path within the knowledge graph, ultimately enhancing the model’s effectiveness. At the same time, we add a self-attention mechanism to trim the action space, which solves the problem of large action space of knowledge graph and improves the effectiveness and efficiency of agent action selection. We performed experiments on multiple KG reasoning benchmarks, and the results show that our method achieves good performance and has good interpretability. -
Evaluating GPT’s Programming Capability Through CodeWars’ Katas
Zizhuo Zhang, Lian Wen, Shaoyang Zhang, David Chen, Yanfei JiangDas Kapitel bewertet die Programmierfähigkeiten von GPT-Modellen, insbesondere GPT-3.5 und GPT-4, indem es sie auf Codewars-Katas von 8kyu bis 1kyu testet. Die Ergebnisse zeigen, dass GPT-4 Probleme bis zur 4kyu-Ebene zuverlässig mit Feedback löst, sich aber über die 3kyu-Ebene hinaus schwer tut. Die Studie unterstreicht die Bedeutung von Validierung und kreativem Denken für KI, um menschliche Intelligenz bei der Problemlösung nachzuahmen. Es führt ein Maß für die Komplexität von Programmierungsproblemen ein und schlägt zukünftige Forschungsrichtungen vor, um die Leistung von KI-Modellen bei komplexen Programmieraufgaben zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractUnderstanding the capabilities and limitations of programming-oriented AI models is crucial. This paper evaluates the programming proficiency of GPT-3.5 and GPT-4 using Codewars coding problems of varying difficulty. The experiments reveal a distinct boundary at the 3kyu level, beyond which these models struggle. This led to proposing a complexity measure that includes problem difficulty and solution time. The research emphasizes the need for validation and creative thinking in AI models to better emulate human problem-solving. Future work aims to refine the complexity measure, enhance AI capabilities, and develop an objective programming problem difficulty measure. These insights are valuable for advancing AI programming and problem-solving abilities. -
An Online Portfolio Selection Algorithm with Dynamic Coreset Construction
Jing Peng, Kaiyin Chao, Geying Chen, Jianfei YinIn diesem Kapitel wird ein innovativer Online-Portfolioauswahlalgorithmus namens Portfolio Selection with Dynamic Coreset Construction (PSCS) vorgestellt. PSCS nimmt sich der Herausforderungen an, Portfolios direkt aus einer großen Anzahl von Vermögenswerten zu optimieren, indem es einen Asset Coreset unter Verwendung eines einzigartigen Clusterprozesses aufbaut. Dieser Prozess gruppiert Vermögenswerte auf der Grundlage ihrer kumulativen Renditen und schafft einen Merkmalsraum, der effektives Clustern ermöglicht. Der Algorithmus schlägt außerdem eine neuartige Funktion vor, die es ermöglicht, innerhalb des aktuellen Zeitfensters Asset Coresets zu bilden. Das Papier formuliert ein Optimierungsproblem auf Spitzenbasis und bietet Lösungen in geschlossener Form, um es zu lösen. Experimentelle Ergebnisse zeigen die Überlegenheit der PSCS gegenüber sieben bestehenden Algorithmen und unterstreichen ihren vielversprechenden Beitrag zum Bereich der Online-Portfolioauswahl an den Finanzmärkten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractOnline portfolio selection in financial markets presents a significant challenge due to the vast number of tradable assets and the prevalence of noise signals. Existing methods often struggle to dynamically select asset subsets in order to optimize capital efficiency. To address these challenges, we propose the Portfolio Selection with Dynamic Coreset Construction (PSCS) algorithm. PSCS incorporates a novel clustering process that groups assets based on their cumulative returns, creating a unique feature space to facilitate effective clustering. From each cluster, a small set of assets is carefully chosen to form a coreset using a peak-to-valley feature that captures the price change ratio within recent time windows. Leveraging this coreset, a peak-based optimization problem is formulated and solved through closed-form solutions. Experimental results demonstrate the superiority of PSCS over seven existing algorithms, highlighting its promising contribution to the field of online portfolio selection in financial markets. -
Interval-Valued Fuzzy Portfolio Decision Model with Transaction Cost and Liquidity
Qiansheng Zhang, Yuanjun OuDas Kapitel führt ein neuartiges intervallbewertetes unscharfes Entscheidungsmodell für Portfolios ein, das Transaktionskosten und Liquiditätsengpässe berücksichtigt. Es verwendet Intervall-Fuzzy-Potentialabweichungen vom Mittelwert und Semi-Absolutwert, um Portfolioertrag und -risiko zu messen, und bietet eine flexiblere und genauere Darstellung unsicherer Daten. Das Modell ist darauf ausgelegt, die Rendite zu maximieren und das Risiko zu minimieren, wobei eine Transformation in eine Funktion mit einem einzigen Ziel unter Verwendung des Risikopräferenzkoeffizienten des Anlegers erfolgt. Die empirische Analyse anhand realer Bestandsdaten zeigt die Effektivität des Modells bei der Anpassung an unterschiedliche Risikopräferenzen und Liquiditätsintervalle und stellt ein robustes Werkzeug zur Portfoliooptimierung dar.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractConsidering transaction cost and liquidity, an interval-valued fuzzy portfolio decision model is constructed with the goals of maximizing possibilistic return and minimizing semi-absolute deviation risk of portfolio. Then, by introducing investor’s risk preference and satisfaction degree of liquidity interval, the constructed portfolio model is converted into a single-objective optimization model to solve the optimal portfolio strategy. Finally, the efficiency of the proposed model is empirically tested by using sample data of stocks listed on the Shenzhen Stock Exchange. -
Active Learning for Low-Resource Project-Specific Code Summarization
Chengli Xing, Tianxiang Hu, Ninglin Liao, Minghui Zhang, Dongdong Du, Yupeng Wu, Qing GaoDas Kapitel geht den Herausforderungen der Zusammenfassung von Code in ressourcenarmen Projekten nach, in denen die Verfügbarkeit historischer Zusammenfassungen begrenzt ist. Es führt aktive Lernstrategien ein, um qualitativ hochwertige Beispiele für manuelle Anmerkungen auszuwählen und so die Leistung des Modells zu verbessern. Die vorgeschlagene Methode integriert Unsicherheits- und Diversitätsmessungen und verwendet einen keyword-enhanced BLEU-Algorithmus für Diversität und Entropie für Unsicherheit. Experimentelle Ergebnisse zeigen die Überlegenheit der aktiven Lernstrategie gegenüber herkömmlichen Methoden und unterstreichen ihr Potenzial, die Zusammenfassung von Code in realen Projekten zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractCode summarization aims to condense source code into concise and efficient summaries, crucial for enhancing code comprehension and maintainability. Deep learning and transfer learning techniques have significantly advanced state-of-the-art code summarization. However, constructing high-quality training datasets for these models remains challenging due to the high cost of manual annotation. Active learning methods offer a promising solution by intelligently selecting informative samples for annotation, reducing annotation costs while improving model performance. This paper explores the integration of active learning techniques into code summarization tasks, emphasizing the need to balance sample diversity and uncertainty in sample selection. Inspired by recent research, a novel active learning framework is proposed, leveraging both uncertainty and diversity metrics to construct effective training datasets. This framework provides a foundation for future research in project-specific code summarization. -
A Survey of Game-Theoretic Methods for Controlling COVID-19
Zhiqi Deng, Xudong Luo, Michael Y. LuoDieses Kapitel bietet einen gründlichen Überblick über spieltheoretische Methoden zur Kontrolle von COVID-19, einschließlich Themen wie der Analyse von Einflussfaktoren, der Kontrolle und Steuerung der Virenverbreitung, der Impfstoffverteilung und der Wirksamkeit von Präventionsmaßnahmen. Es betont die Notwendigkeit eines größeren Zusammenhalts in der interdisziplinären Forschung und betont das Potenzial der Spieltheorie, strategische Entscheidungen und politische Formulierungen zu beeinflussen. Das Kapitel diskutiert auch verschiedene Spielmodelle, ihre Grenzen und zukünftige Forschungsrichtungen, was es zu einer wertvollen Ressource für Fachleute und Forscher im Bereich der öffentlichen Gesundheit und Epidemiologie macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractTo provide researchers and policymakers with an in-depth understanding of COVID-19 management and insights for dealing with future pandemics, this paper examines the use of game theory in addressing the challenges posed by the COVID-19 pandemic, highlighting its role in understanding the virus’s dynamics and formulating effective control measures. It reviews game theory models considering public compliance, individual behaviours, socio-economic disparities, and cultural influences on COVID-19 control. It also analyses the application of game theory in evaluating common control strategies like quarantine, lockdowns, and vaccination. Future research should integrate behavioural and social factors into game models and focus on international cooperation to address data scarcity, model complexity, and unrealistic assumptions. -
ComPAT: A Compiler Principles Course Assistant
Shubin Cai, Honglong Chen, Youyi Huang, Zhong MingComPAT, ein auf großen Sprachmodellen basierender Kursassistent für Compiler-Prinzipien, adressiert die Herausforderungen, vor denen Studenten stehen, wenn es darum geht, komplexe Compiler-Konzepte zu verstehen. Durch die Integration von LLMs mit einer Vektordatenbank bietet ComPAT personalisierte und präzise Antworten, die das Lernerlebnis verbessern. Das Kapitel beschreibt das System-Framework, einschließlich Dokumentensegmentierung, Kontexterstellung und prompter Erstellung, sowie die experimentellen Ergebnisse, die ComPATs überlegene Leistung im Bereich Compilerprinzipien belegen. Darüber hinaus wird das Potenzial von ComPAT in praktischen Lehrumgebungen und zukünftigen Verbesserungen diskutiert.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractStudents in compiler principle course often encounter difficulties in understanding abstract programming concepts and need first-aid assistants in the context of independent learning. An innovative Large Language Model-based assistant ComPAT (Compiler Principles course AssisTant) is proposed in this paper. ComPAT uses vector database for text segmentation and similarity queries, meta prompting for answer refinement and challenging questions for heuristic learning. A compiler principles domain-specific dataset with 1520 questions is constructed. Compared to ChatGPT3.5, ERNIE3.5, and ChatGLM4, ComPAT has shown superior performance in handling fill-in-the-blank and question-and-answer. ComPAT demonstrates an innovative and promising use of LLM-based teaching/learning assistant system in computer education. -
Tram Air Conditioning Fault Prediction Using Machine Learning
Suman, Essa Q. Shahra, Abdulrahman A. Alsewari, Haitham H. MahmoudDas Kapitel befasst sich mit der Anwendung von maschinellem Lernen zur Vorhersage von Störungen in Straßenbahnklimaanlagen. Es unterstreicht die Beschränkungen des überwachten Lernens aufgrund unausgewogener Datensätze und führt unkontrollierte Lernmethoden ein, insbesondere Clusterbildung, um diese Herausforderungen zu bewältigen. Das vorgeschlagene Rahmenwerk integriert PCA-, K-Mittel- und LSTM-Techniken, um Daten auf der Grundlage von Ähnlichkeiten zu bündeln und Ausreißer zu erkennen, wodurch die Fehlererkennungsgenauigkeit verbessert wird. Die Forschung basiert auf dem UCI MetroPT-3 Datensatz und zeigt die Wirksamkeit der vorgeschlagenen Methoden durch umfassende Analyse und Evaluierung auf. Das Kapitel schließt mit einer Zusammenfassung der Ergebnisse und Vorschlägen für zukünftige Wege zur Verbesserung der Fehlererkennung in Straßenbahn-Klimaanlagen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn fault detection and diagnosis (FDD) research, most focus has been on accurate supervised learning techniques, but they heavily depend on well-organized datasets, which can be tough due to a lack of real-world faulty samples. To tackle this, our study introduces an unsupervised learning approach that uses new methods to create synthetic faulty samples and optimized Principal Component Analysis (PCA) for efficient computations in large datasets. The main aim is to blend unsupervised learning using Isolation forest, specifically clustering techniques, into fault detection systems to handle challenges from unclassifiable or imbalanced data, a problem for traditional supervised methods. The methodology combines innovative PCA algorithms with Rapid PCA, K means, LSTM, and clustering methods to build a strong fault detection framework. The study assesses the impacts of data imbalance, examines the benefits of unsupervised clustering, and evaluates algorithm adaptability in finding faults without labeled data. Challenges include accurately clustering with limited labeled data and identifying subtle fault behaviours in normal operational data. Split into sections like introduction, literature review, methodology, experiments, and conclusion, this research aims to offer a detailed look at using unsupervised learning (i.e., Isolation Forest) to improve fault detection, especially in situations with complex data challenges. -
Lexicon Graph Adapter Based BERT Model for Chinese Named Entity Recognition
Jie Liu, Peipei Liu, Yimo Ren, Jinfa Wang, Hongsong ZhuDas Kapitel stellt ein bahnbrechendes BERT-Modell auf Grundlage eines Lexikon-Graphen-Adapters vor, das entwickelt wurde, um die Komplexität der chinesischen Named Entity Recognition (NER) in Angriff zu nehmen. Im Gegensatz zu früheren Methoden konstruiert dieses Modell einen heterogenen Graphen, um Zeichen- und Wortinformationen darzustellen, was dynamisches Lernen von Lexikon-Merkmalen durch Graphenadapter ermöglicht. Durch die Integration dieser Merkmale in BERT verbessert das Modell die Leistung chinesischer NER-Aufgaben erheblich, wie umfangreiche Experimente an mehreren Datensätzen gezeigt haben. Der neuartige Ansatz der selektiven Verschmelzung verwandter Charakter- und Wortknoten auf der Grundlage heterogener Graphen hebt dieses Modell von traditionellen lexikonbasierten Methoden ab und macht es zu einer überzeugenden Lektüre für Fachleute im Bereich NLP und maschinellem Lernen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractRecently, both lexicon information and pre-trained models have been proved to be effective for Chinese named entity recognition task. Due to their respective advantages, lexical information and pre-trained models have been combined to improve the performance. However, existing methods only incorporate the initial lexicon features into the characters. The lexicon features are not updated during model training, and the relationships between adjacent words are ignored. We propose a novel Lexicon Graph Adapter based BERT Model for Chinese named entity recognition, namely LGA-BERT. This architecture constructs a heterogeneous graph to relate the characters and words, and updates and integrates the word features into the BERT layers through multiple layers of Word-Adapter and Character-Adapter. We perform extensive experiments on 4 widely used Chinese NER benchmark datasets. The result shows that our LGA-BERT achieves the state-of-the-art compared to the previous lexicon based methods. -
Insider Threat Defense Strategies: Survey and Knowledge Integration
Chengyu Song, Jingjing Zhang, Linru Ma, Xinxin Hu, Jianming Zheng, Lin YangDieses Kapitel vertieft die komplexe Herausforderung der Verteidigung von Insiderangriffen und hebt die erheblichen Auswirkungen von Insiderangriffen auf Organisationen hervor. Es bietet eine methodische Zusammenfassung der Verteidigungsstrategien aus der Perspektive eines Systemdesigners und deckt verschiedene Phasen des Lebenszyklus der Erkennung von Insidergefahren ab. Das Kapitel überprüft auch Benchmark-Datensätze und externe Ressourcen, die die Erkennung von Insiderbedrohungen verbessern. Insbesondere führt sie eine Taxonomie von Insiderbedrohungen und Verteidigungsmethoden ein, was sie zu einem umfassenden Leitfaden für Forscher und Praktiker macht, die versuchen, die Sicherheit ihrer Organisation gegen Insiderbedrohungen zu stärken.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractInsider threats are one of the most challenging cybersecurity issues today, and are receiving increasing attention both in the computer science community and in the government and corporate world. In this study, we provide a comprehensive overview of existing scholarly investigations that employ structural taxonomies. Our objective is to systematize and distinguish insider threat events and the corresponding defense mechanisms. We conduct a comprehensive analysis of defense strategies against insider threats, encompassing preventive and detection methods. Subsequently, we present a detailed taxonomy focused on workflow processes, organizing defense and mitigation measures at each stage of an insider threat’s lifecycle. The presented taxonomy provides a detailed description of defense and mitigation measures applicable at each stage in the life cycle of internal threats. Special attention is paid to the external knowledge bases for assisting the model in determining insider threat behaviors. Our survey aims to augment the practitioners in the insider threat domain by offering (1) a workflow-centric structural taxonomy that contributes to the orthogonal classification of incidents and delineates the scope of defense solutions utilized to counter them, (2) an overview on publicly available datasets for model performance comparison, (3) a compilation of external knowledge bases used to aid insider threat detection, and (4) a discussion of existing trends and further research directions in the insider threat domain. -
GA-MEPS: Multiple Experts Portfolio Selection Based on Genetic Algorithm
Kaiyin Chao, Jing Peng, Xiaomian Xiao, Jinglan Deng, Hanyu Yang, Jianfei YinIm Kapitel wird GA-MEPS vorgestellt, ein neuartiger Algorithmus zur optimierten Portfolioauswahl, der genetische Algorithmen nutzt, um aus mehreren Experten adaptiv auszuwählen. Im Gegensatz zu herkömmlichen Methoden, die auf einer einzigen Expertenstrategie beruhen, aggregiert GA-MEPS mehrere Expertenmeinungen, um die Portfolioperformance unter verschiedenen Marktbedingungen zu verbessern. Der Algorithmus umfasst eine Fitnessfunktion zur Bewertung der Expertenleistung und einen genetischen Algorithmus zur Auswahl der Experten. Experimentelle Ergebnisse zeigen, dass GA-MEPS acht Benchmark-Algorithmen in sechs realen Datensätzen übertrifft und überlegene kumulative Vermögenswerte und risikobereinigte Renditen erzielt. Das Kapitel stellt auch eine geschlossene Lösung für das Problem der Portfolio-Trendverfolgung dar und bietet eine detaillierte Erklärung des Konstruktions- und Auswahlprozesses des Expertenpools. Der innovative Ansatz und die robuste Performance von GA-MEPS machen es zu einer überzeugenden Lösung für Finanzprofis, die ihre Portfolioauswahlstrategien optimieren wollen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn the realm of online portfolio selection, aggregating multiple experts is crucial for improving investment decisions in complex market conditions. However, existing methods often overlook two essential factors: expert diversity and adaptive expert selection, both of which significantly impact portfolio returns. To address these issues, this paper proposes a novel multiple experts portfolio selection method based on genetic algorithm (GA-MEPS). This method (i) introduces a portfolio trend tracking problem with closed-form sparse solutions, enabling optimal selection among assets within a unified framework; (ii) constructs a pool of 24 experts, each characterized by distinct trading behaviors; and (iii) designs a fitness function to enable efficient adaptive expert selection based on genetic algorithm. Extensive experiments on six datasets demonstrate GA-MEPS’s superior performance over six competitive algorithms, achieving average cumulative wealth and Calmar ratio that are 4.17E+09 and 5.55 times higher, respectively, compared to the benchmark buy-and-hold strategy. -
Deep Learning and Machine Learning-Based Approaches to Inferring Social Media Network Users’ Interests from a Missing Data Issues
Feriel Gammoudi, Mohamed Nazih OmriDieses Kapitel befasst sich mit dem komplexen Problem, die Interessen der Nutzer sozialer Medien aus fehlenden Daten abzuleiten. Es stellt einen bahnbrechenden Ansatz vor, der rekurrente neuronale Netzwerke (RNNs) und zufällige Entscheidungswälder (RDFs) kombiniert, um dieser Herausforderung wirksam zu begegnen. Durch die Nutzung des Verhaltens und der Interaktionen von Freunden verbessert die vorgeschlagene Methode die Genauigkeit der Vorhersage von Nutzerinteressen, selbst bei unvollständigen Daten. Das Kapitel bietet eine gründliche Untersuchung verwandter Arbeiten, Motivation, Problemdefinition und Forschungsfragen, die in einer detaillierten Erläuterung des vorgeschlagenen Ansatzes und experimenteller Ergebnisse gipfelt. Die Integration von RNNs und RDFs ermöglicht es dem Modell, sowohl sequenzielle Muster als auch komplexe Beziehungen in den Daten zu erfassen, was zu einer überlegenen Leistung bei der Vorhersage von Nutzerinteressen führt. Das Kapitel schließt mit einer Diskussion der Bewertung des Modells und potenzieller zukünftiger Verbesserungen, wobei die Robustheit und Anwendbarkeit der vorgeschlagenen Methode im Bereich der Social-Media-Analyse hervorgehoben wird.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis research explores how user-provided information can be leveraged to identify evolving user interests and generate tailored recommendations. It addresses the challenge posed by inactive users who rarely share or interact on social media, making it difficult to assess their profiles due to insufficient information. To infer and forecast the interests of these inactive users, the study examines how individuals’ interests can be deduced from their friends’ activities on social networks. The proposed method utilizes machine learning and deep learning to analyze data from user friends and predict interests, even when information is missing. This approach is evaluated using the standard Kaggle Social Network dataset and performance metrics such as recall, accuracy, precision, and F-measure (F1). The findings demonstrate the effectiveness of the proposed user detection strategy. -
Customer Segmentation for Telecommunication Using Machine Learning
Haitham H. Mahmoud, A. Taufiq AsyhariDieses Kapitel geht auf die entscheidende Rolle der Kundensegmentierung in der Telekommunikationsbranche ein und zeigt auf, wie maschinelles Lernen eingesetzt werden kann, um zielgerichtete Strategien zu entwickeln, die bei den Kunden Anklang finden. Durch die Segmentierung von Kunden auf der Grundlage von Nutzung, Verhalten und Loyalität können Telekommunikationsunternehmen ein tieferes Verständnis ihrer Bedürfnisse und Präferenzen erlangen, was sie in die Lage versetzt, personalisierte Erfahrungen und zielgerichtete Marketingkampagnen zu erstellen. Das Kapitel diskutiert die Vorteile und Herausforderungen des Einsatzes von maschinellem Lernen zur Kundensegmentierung, stellt eine detaillierte Methodik vor, einschließlich der Verwendung von Algorithmen wie K-nächsten Nachbarn, linearer Diskriminanzanalyse und künstlichen neuronalen Netzwerken, und bewertet die Leistung dieser Algorithmen anhand von Metriken wie Präzision, Rückruf, F1-Score und Genauigkeit. Der vorgeschlagene Ansatz bietet eine ganzheitliche Sicht der Kundendynamik und ermöglicht es Telekommunikationsunternehmen, ihre Strategien effektiver anzupassen und die Kundenbindung zu verbessern. Das Kapitel untersucht auch die Beschränkungen des vorgeschlagenen Systems und schlägt Bereiche für zukünftige Forschung vor, um die Genauigkeit und Anwendbarkeit von Kundensegmentierungstechniken zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractWith the commercialization of 5G technology and future networks, telecommunications companies need to effectively segment their customers to create targeted strategies that meet their customers’ needs, increase customer satisfaction, and drive revenue growth. Maintaining a competitive position will require diversifying business models in the data plan area. While previous studies have focused on clustering and prediction to identify customer churn, this paper proposes a new approach by utilizing customer segmentation to create different clusters based on usage, behaviour, and loyalty on the Call Detail Records (CDRs) dataset. The segmentation is performed using three distinct approaches, which can be selected based on the needs of the system. A classification algorithm is then trained on the generated labels for each cluster, and the resulting algorithms are evaluated using metrics such as Precision, Recall, F1 score, and accuracy. This novel approach aims to improve customer churn prediction and enable more targeted strategies to retain valuable customers. KNN has shown 96% accuracy for usage and behaviour detection, while ANN managed to get 79% accuracy for the Loyalty of customers. -
DP-MFRNN: Difficulty Prediction for Examination Questions Based on Neural Network Framework
Xingjian Xu, Liu Fang, Zhuang LvDas Kapitel stellt DP-MFRNN vor, ein hoch entwickeltes Modell zur Vorhersage der Schwierigkeit von Multiple-Choice-Fragen in Computerprüfungen. Es adressiert die Beschränkungen der manuellen Schwierigkeitseinschätzung, indem es einen multifunktionalen Aufmerksamkeitsmechanismus und bidirektional rezidivierende neuronale Netzwerke einsetzt. Das Modell bereichert den Fragekontext, indem es relevante Wissenspunkte abruft, das semantische Verständnis verbessert und die Genauigkeit der Schwierigkeitsvorhersage verbessert. Das Kapitel bietet auch einen umfassenden Überblick über Architektur, Implementierung und experimentelle Ergebnisse des Modells und zeigt seine überlegene Leistung im Vergleich zu anderen Methoden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe conventional approach to predicting examination question difficulty primarily relies on artificial marking, characterized by high subjectivity, low accuracy, and substantial workload. This approach significantly hampers the progress and advancement of intelligent education evaluation systems. In order to address these challenges, we propose DP-MFRNN, a bidirectional recurrent neural network model based on multi-feature attention. The DP-MFRNN model adopts a multi-feature task learning strategy, leveraging relevant computational knowledge to enhance the contextual understanding of the problem statement. Subsequently, a bidirectional recurrent neural network is employed to mine the logical relations within the test text data and extract the representation of the statement. The attention mechanism is then utilized to measure the importance of associated statements to the given problem. Taking the example of a university computer foundation single-item selection, the extracted features are input into the model. Experimental results demonstrate a significant enhancement in the Pearson correlation coefficient and the degree of agreement of the proposed model. -
Causal Relationship Extraction Combined Boundary Detection and Information Interaction
Honglei Zhang, Rong YanDas Kapitel geht der entscheidenden Aufgabe der Causal Relationship Extraction (CRE) in der Verarbeitung natürlicher Sprache nach, insbesondere im medizinischen Bereich. Sie unterstreicht die Bedeutung von CRE für die Medikamentenentwicklung, diagnostische Hilfe und Patientenversorgung. Traditionelle CRE-Methoden werden in sequenzmarkierungsbasierte und segmentbasierte Ansätze unterteilt, wobei jeder dieser Ansätze seine Grenzen hat. Um diesen Herausforderungen zu begegnen, stellen die Autoren ein neuartiges Modell namens CATB vor, das ein Boundary Detection Module (BDM) und einen Co-Interactive Adaptive Transformer (CAT) kombiniert. Das BDM verwendet ein Zeigernetzwerk, um Entitätsgrenzen zu identifizieren, während das CAT Aufmerksamkeitsmechanismen verwendet, um kontextuelle Abhängigkeiten zwischen Ursache-Wirkung-Ereignissen zu erfassen. Die Integration dieser Komponenten versetzt das Modell in die Lage, große Einheiten zu extrahieren und komplexe Zusammenhänge in medizinischen Texten zu verstehen. Experimentelle Ergebnisse an vier Datensätzen zeigen die überlegene Leistung des CATB-Modells im Vergleich zu bestehenden Methoden und zeigen sein Potenzial, die medizinische Textanalyse zu revolutionieren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractCausal relationship extraction (CRE) is a vital relationship extraction task in natural language processing (NLP), which aims to extract the causal relationship between entities. Existing CRE models have achieved promising performance but suffered with some specific drawbacks. Sequence labeling-based models fail to recognize long entities merely by using the word-level and character-level information, and segment-based models can not capture contextual dependencies and overly focuses on segments rather than specific causal entities. In this paper, we propose a novel causal relationship extraction model CATB (Co-Interactive Adaptive Transformer+Boundary Detection), and tailor for the medical text domain, which independently models the labels and characters of causal events and integrates information to address the limitations of segment-based models. Additionally, we introduce a Boundary Detection Module (BDM) to improve the extraction of long entities in the medical text domain. Experimental results demonstrate that our proposed model significantly outperforms existing methods. -
Profit Maximization in Edge-Enabled Multimedia Data Market: A Game-Based Pricing Approach
Bo Shen, Qian Ma, Gang Yang, Ru WangDas Kapitel "Gewinnmaximierung auf dem Edge-Enabled Multimedia Data Market: A Game-Based Pricing Approach" befasst sich mit der Gewinnoptimierung auf den Edge-Enabled Multimedia Data Markets. Mit der raschen Weiterentwicklung von IoT und Deep Learning wird in diesem Kapitel ein wirtschaftlicher Rahmen eingeführt, der die Interaktionen zwischen Datenanbietern und Käufern modelliert. Das Rahmenwerk berücksichtigt entscheidende Faktoren wie Datenqualität und geografische Lage, um Preis- und Nachfragestrategien zu bestimmen. Das Stackelberg-Spiel wird eingesetzt, um einzigartige Nash-Gleichgewichte herzuleiten, die optimale Gewinne sowohl für Datenanbieter als auch für Käufer sicherstellen. Zusätzlich präsentiert das Kapitel einen Tornisteralgorithmus zur Auswahl von Datenanbietern unter Budgetbeschränkungen, um die allgemeine Rentabilität des Marktes zu maximieren. Die Wirksamkeit des vorgeschlagenen Rahmenwerks wird durch umfangreiche Simulationen bestätigt, die die überlegene Leistung der vorgeschlagenen Methode im Vergleich zu zufälligen und gierigen Auswahlstrategien hervorheben.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractA huge amount of multimedia data is generated everyday. The value of data determines that it can be viewed as a kind of commodity for sale. Processing raw data to extract knowledge can increase the value of data. However, processing cost determine the profits of data providers. Processing delay affect the purchasing willingness of data buyers. In this paper, we propose an economics framework for data trading. A data market with the aid of edge computing is established to describe the interaction between data providers and data buyers. The problem of pricing and purchasing data is discussed to maximize the profits of the whole participants in multimedia data market. A Stackelberg game is then proposed to derive the best pricing and purchasing strategies. The knapsack strategy is also used to select the candidate data providers. Extensive experimental results show the effectiveness of the proposed framework. -
Reinforcement Learning for Scientific Application: A Survey
Zhikuang Xin, Zhenghong Wu, Dong Zhu, Xiaoguang Wang, Jue Wang, Yangang WangDieses Kapitel untersucht das transformative Potenzial des Deep Enhancement Learning (DRL) in wissenschaftlichen Anwendungen. Es beginnt mit der Einführung in die Grundlagen des Verstärkungslernens und seiner Weiterentwicklung hin zu vertieftem Verstärkungslernen, wobei die Vorteile der Kombination von vertieftem Lernen mit Methoden des Verstärkungslernens betont werden. Das Kapitel untersucht dann die jüngsten Fortschritte bei DRL-Algorithmen, kategorisiert sie in verschiedene Methoden und analysiert ihre Leistungsfähigkeit. Ein wesentlicher Teil des Kapitels widmet sich der Anwendung der DRL in wissenschaftlichen Bereichen und zeigt ihre Fähigkeit, hochdimensionale und komplexe Probleme zu lösen. Bemerkenswerte Beispiele sind Robotersteuerung, autonomes Fahren und Materialdesign. Das Kapitel schließt mit der Diskussion der Herausforderungen und Zukunftsaussichten des DRL in der wissenschaftlichen Forschung und unterstreicht seine Rolle bei der Förderung von Innovation und Entdeckung.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractReinforcement learning is an algorithm that learns optimal policies through trial and error. In application domains, reinforcement learning has been successfully applied to many fields such as AlphaGo and autonomous driving systems. As the potential of reinforcement learning is gradually discovered, its application fields are expanding, and it is gradually applied to many fields such as energy management, scientific discovery, robot control, autonomous driving, and more. However, as the environment becomes increasingly complex, a single agent often struggles when facing complex and unstable environments. Thus, multi-agent reinforcement learning has emerged. This method extends reinforcement learning to collaborative or competitive tasks among multiple agents and is an effective means of solving complex problems. In order to better utilize reinforcement learning methods to explore scientific problems, efficient large-scale training techniques are often needed. The development of efficient training techniques and scientific applications permeate and integrate with each other, providing a solid foundation for reinforcement learning in exploring scientific problems. It is foreseeable that the combination of reinforcement learning and scientific applications will continue to be an important direction for future artificial intelligence research, and will have increasingly extensive and profound impacts. -
Zunna
The Browser Extension for Protecting Personal Data Yussuf Ahmed, William Hunt, Haitham H. Mahmoud, Mohamed Ben FarahDas Kapitel "Zunna: Die Browser-Erweiterung zum Schutz personenbezogener Daten" widmet sich dem kritischen Thema der Sicherheit personenbezogener Daten im digitalen Zeitalter. Es beginnt damit, die zunehmende Anfälligkeit persönlicher Daten für die Ausbeutung durch Technologiegiganten, Regierungen und Kriminelle hervorzuheben. Der Autor identifiziert signifikante Lücken im aktuellen Browser-Erweiterungsmarkt, der sich häufig auf spezifische Aspekte der Cybersicherheit konzentriert, anstatt eine umfassende Lösung anzubieten. Das Kapitel stellt Zunna vor, eine Browsererweiterung, die gegen invasive Tracker schützen, Cookies verwalten, Werbung blockieren und XSS-Angriffe verhindern soll. Im Gegensatz zu bestehenden Erweiterungen bietet Zunna einen vielschichtigen Ansatz zum Schutz digitaler Daten und ist damit eine herausragende Lösung in diesem Bereich. Der Autor bewertet Zunnas Leistung und Effektivität rigoros und vergleicht sie mit populären Erweiterungen wie AdBlock Plus und Privacy Badger. Die Ergebnisse zeigen Zunnas Überlegenheit bei der Blockierung von Trackern, der Verwaltung von Cookies und dem Schutz vor Clickjacking. Das Kapitel schließt mit der Diskussion potenzieller zukünftiger Verbesserungen und der Kompatibilität der Erweiterung mit verschiedenen Browsern, unterstreicht ihre Relevanz und möglichen Auswirkungen auf die Cybersicherheitslandschaft.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe connectivity of devices has increased over the last few decades, and millions of connected devices have enabled people to connect easily to the internet. Internet browsers come bundled in many devices ready for use. While these browsers increase usability, they also allow the collection of vast amounts of data without the user’s knowledge introducing serious threats to the privacy and confidentiality of the users. This paper discusses the Zunna browser extension, which was designed with the security of personal data in mind. Zunna enables safe website checking and reduces the risks from web-based attacks such as clickjacking and cross-site scripting. Zunna browser also provides the potential to block advertisements and other features such as password suggestions. -
HRTC: A Triplet Joint Extraction Model Based on Cyber Threat Intelligence
HuanZhou Yue, XuRen Wang, Rong Chen, ZhengWei Jiang, YuXia Fu, Jun JiangIn diesem Kapitel wird HRTC vorgestellt, ein Triplet Joint Extraction Modell, das darauf ausgelegt ist, die Verbindung zwischen Entitätserkennung und Beziehungsextraktion im Bereich der Cyber-Bedrohungsinformation zu verbessern. Das Modell adressiert die Beschränkungen bestehender Pipeline-Extraktionsmethoden, indem es einen gemeinsamen Extraktionsansatz vorschlägt, der neuronale Netzarchitekturen nutzt, um die Effizienz zu verbessern. Die Autoren tragen auch zu diesem Feld bei, indem sie einen Netzwerk-Bedrohungsinformationsdatensatz mit APT-Angriffen erstellen, der verschiedene Entitäten und Beziehungen umfasst. Der Datensatz wird durch einen sorgfältigen Prozess der Datenerfassung, Vorverarbeitung und Anmerkung aufgebaut, was zu einer wertvollen Ressource für weitere Forschung und praktische Anwendungen im Bereich der Cybersicherheit führt. Das Kapitel bietet einen detaillierten Rahmen des HRTC-Modells, einschließlich Word-Einbettung, versteckte Beziehungserkennung, Entitätsextraktion und Triplet-Alignment-Module. Experimentelle Ergebnisse zeigen die überlegene Leistung von HRTC im Vergleich zu Basismodellen und unterstreichen sein Potenzial für Anwendungen in der realen Welt im Bereich der Cyber-Bedrohungsinformation.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe construction of the network threat intelligence Knowl-edge graph requires a large number of entity relationship triplets, and the open network threat intelligence data set is relatively scarce; Meanwhile, the existing triplet extraction models use traditional pipeline models and cannot share parameters. In response to the above issues, this article constructs a publicly available dataset and proposes the triplet joint extraction model HRTC. HRTC uses XLnet for embedding expression and BiGRU for decoding. The experimental results show that compared with existing joint extraction models, the performance of the baseline model is superior in accuracy, recall, and F1 value. HRTC experiments on universal datasets have shown that it still performs best when dealing with large-scale datasets. -
Personalized Image Aesthetics Assessment Based on Theme and Personality
Jiaqi Dai, Min Jiang, Fanzhen Liu, Ronghua HuangDas Kapitel vertieft die Komplexität der Bewertung personalisierter Bildästhetik (PIAA) und konzentriert sich auf den Einfluss von Themen und Persönlichkeitsmerkmalen. Es führt einen Multi-Task-Lernansatz ein, der ästhetische Wahrnehmung und Persönlichkeitsprognose kombiniert und die Leistung beider Aufgaben verbessert. Das vorgeschlagene Modell beinhaltet Themenfunktionen, um unterschiedliche Bewertungskriterien für verschiedene Bildthemen bereitzustellen, und nutzt die subjektiven Attribute der Nutzer, um ihre einzigartigen ästhetischen Präferenzen zu erlernen. Experimentelle Ergebnisse an großen Datensätzen zeigen die überlegene Leistung des Modells beim Erlernen personalisierter Bildästhetik, was es zu einem bedeutenden Beitrag auf dem Gebiet der Computervision und Bildverarbeitung macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractPersonalized Image Aesthetic Assessment (PIAA), which studies individual users’ aesthetic preferences for images. Although having achieved good performance on a few image aesthetic assessment datasets, the existing PIAA methods still have some shortcomings. They directly learn aesthetic features from images without considering the influence of theme changes. And due to the lack of user annotation aesthetic assessment data, it is hard to adopt those models to new users. As evaluation criteria vary for images of different themes and aesthetic preferences differ among users with different personalities, we propose a PIAA method which simultaneously integrates the information of aesthetic attributes, theme information and user personalities. To capture the correlation between aesthetic attributes and user personalities, we introduce a multi-task network to evaluate personalized aesthetic scores by learning aesthetic features and personality traits, and we also add a theme feature extraction network to improve the robustness of aesthetic score prediction. Experimental results demonstrate that our approach outperforms other methods in learning the personalized image aesthetics of individual users. -
A Spatio-temporal Neural Network for Medical Insurance Fraud Detection
Chenfei SunDas Kapitel stellt ein räumlich-zeitliches neuronales Netzwerk (STNN) zur Aufdeckung von Versicherungsbetrug vor und betont die Bedeutung räumlicher und zeitlicher Muster in Krankenakten. Herkömmliche Methoden übersehen diese komplizierten Interaktionen häufig, was zu ineffektiver Betrugsaufdeckung führt. Das STNN nutzt Aufmerksamkeitsmechanismen und 3D-Faltung, um diese Muster zu erkennen und zeigt wesentliche Fortschritte gegenüber früheren Techniken. Umfassende Tests in realen Szenarien bestätigen die Effizienz des Modells bei der Verbesserung der Betrugserkennung. Das Kapitel vertieft sich auch in die Problemdefinition, die Featureextraktion, die Modellarchitektur und die experimentellen Ergebnisse und zeigt die überlegene Leistung des STNN im Vergleich zu anderen Methoden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractMedical insurance fraud presents a significant challenge to the medical insurance ecosystem and is one of the major issues that urgently need to be addressed in the current field of medical insurance. In recent years, due to the growing complexity of fraudulent methods in medical insurance, existing fraud detection methods are unable to effectively tackle this challenge. To this end, we innovatively introduce spatio-temporal medical data into the model and propose a Spatio-Temporal Neural Network (STNN) method to identify fraud in medical insurance. This technique analyzes health records by combining spatial and temporal dynamics through three-dimensional convolution. We evaluate STNN on an authentic dataset of medical insurance. STNN outperforms state-of-the-art benchmarks in terms of precision-recall evaluations, highlighting its efficacy as a powerful tool in combating fraudulent activities within the medical insurance domain. -
Exploring Language Diversity to Improve Neural Text Generation
Lingjiao Xu, Xingyuan Chen, Bing Wang, Peng JinDas Kapitel geht der entscheidenden Rolle der sprachlichen Vielfalt bei der Verbesserung der neuronalen Textgenerierung nach, einer entscheidenden Technologie für die Verarbeitung natürlicher Sprache. Es werden vier Strategien zur Datenerweiterung eingeführt, um textuelle Informationen zu bereichern und die Vielfalt zu erhöhen. Während der Dekodierungsphase verwendet es eine Kombination aus Top-K-Abtastung und Strahlsuche, um den Suchraum zu erweitern. Die Ausgabestufe besteht aus Übererzeugung, gefolgt von einer Filterung nach Wahrscheinlichkeitsmethoden. Experimentelle Ergebnisse zu verschiedenen Modellen und Datensätzen zeigen signifikante Verbesserungen bei der Leistung der Texterzeugung, insbesondere bei der Beantwortung und Zusammenfassung von Fragen. Das Kapitel schließt mit der Hervorhebung der herausragenden Leistung des vorgeschlagenen Rahmens, der auf verschiedene Modelle und Sprachaufgaben anwendbar ist.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractText Generation aims to utilize contextual details to generate linguistically appropriate language. Research has demonstrated that integrating various linguistic features can significantly enhance the quality of text generation tasks. In light of this, this paper proposes an innovative approach Diversity Text Generation (DiversityGen)-and makes advancements in three aspects. Firstly, data augmentation techniques are employed to transform the original data, thereby enhancing the latent features of the text. Secondly, in the conversion of the model’s distributed vector output into text, a combination of Top-K and Beam Search decoding methods (Top-k-bs-m) is utilized. This extends the search space through random sampling during Beam Search decoding, thereby improving decoding performance and generating diversified text. Lastly, the concept of Over Generation (OGen) is introduced, wherein the results are filtered using three probability maximization-based methods to optimize output diversity. Experimental results demonstrate the effectiveness of this approach in question generation and text summarization tasks, surpassing current benchmarks. -
Diffusion Review-Based Recommendation
Xiangfu He, Qiyao Peng, Minglai Shao, Yueheng SunDas Kapitel geht den Herausforderungen statischer Benutzerdarstellungen in Empfehlungssystemen nach und schlägt das Review-based Diffusion Recommendation (RDRec) -Modell vor. Durch die Nutzung von Diffusionsmodellen erfasst RDRec die dynamischen und vielfältigen Interessen der Nutzer und generiert präzisere und personalisiertere Empfehlungen. Das Modell beinhaltet einen Vorwärtsvorgang, um Nutzerrepräsentationen zu stören, und einen Rückwärtsvorgang, um sie zu denunzieren, wobei die intrinsische Verteilung der Nutzerinteressen erlernt wird. Experimentelle Ergebnisse zu realen Datensätzen zeigen die Effektivität von RDRec und unterstreichen seine überlegene Leistung im Vergleich zu modernen Methoden. Visualisierungen und Fallstudien bestätigen die Fähigkeit des Modells, Artikel auf Grundlage der wahren Interessen der Nutzer zu erfassen und zu empfehlen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractReview-based recommender systems have attracted a lot of attention recently because of the rich information entailed in the reviews. These models try to learn representations to model user interest and item features from textual reviews. However, most existing methods usually simply learn the mapping relationships between input data and output labels, which could be unable to effectively model the complex user-item interaction generation process and diverse user interests. Inspired by generative models like diffusion models, in this paper, we propose a Review-based Diffusion Recommendation model (RDRec), which aims to learn more real user interest distribution and simulate user-item interaction generation process. In the forward process, RDRec corrupts the review features by adding Gaussian noise and trains the transformer as the approximator to reconstruct the origin features. Besides, the user’s historical behaviors are also fed into the approximator to combine the user’s other interaction information. In the reverse process, RDRec reverses the corrupted user features in a smaller step as the user interest representation. In this way, the model could capture the user’s diverse interests and learn the user interaction generation process. Experiments are conducted on four benchmark datasets and the results validate our model’s effectiveness in recommender systems. -
IntellectSeeker: A Personalized Literature Management System with the Probabilistic Model and Large Language Model
Weizhen Bian, Siyan Liu, Yubo Zhou, Dezhi Chen, Yijie Liao, Zhenzhen Fan, Aobo WangIntellectSeeker ist ein bahnbrechendes Literaturmanagementsystem, das die akademische Forschung revolutionieren soll, indem es sich den Herausforderungen stellt, relevantes Material in den riesigen digitalen Bibliotheken zu finden. Die Plattform integriert ein probabilistisches Modell für das Scraping von Daten, das die Datenbank dynamisch an die sich entwickelnden Forschungsinteressen des Nutzers anpasst. Zusätzlich verfügt IntellectSeeker über einen semantischen Verbesserungsbot, der durch ein großes Sprachmodell angetrieben wird, das darauf abgestimmt ist, Alltagssprache in akademisches Vokabular zu übersetzen. Dies gewährleistet präzise und personalisierte Suchergebnisse und macht sie zu einem unschätzbaren Werkzeug für Forscher, insbesondere für Studienanfänger. Das System umfasst außerdem fortschrittliche Empfehlungsalgorithmen, Werkzeuge zur Textkomprimierung und innovative Visualisierungen wie Word Clouds, um die Benutzererfahrung zu verbessern. Durch die Kombination dieser erweiterten Funktionen bietet IntellectSeeker ein beispielloses Maß an Personalisierung und Effizienz im akademischen Literaturmanagement.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractFaced with the burgeoning volume of academic literature, researchers often need help with uncertain article quality and mismatches in term searches using traditional academic engines. We introduce IntellectSeeker, an innovative and personalized intelligent academic literature management platform to address these challenges. This platform integrates a Large Language Model (LLM)–based semantic enhancement bot with a sophisticated probability model to personalize and streamline literature searches. We adopted the GPT-3.5-turbo model to transform everyday language into professional academic terms across various scenarios by fine-tuning. This adaptation mainly benefits academic newcomers, effectively bridging the gap between general inquiries and academic terminology. The probabilistic model intelligently filters academic articles to align closely with the specific interests of users, which are derived from explicit needs and behavioral patterns. Moreover, IntellectSeeker incorporates an advanced recommendation system and text compression tools. These features enable intelligent article recommendations based on user interactions and present search results through concise one-line summaries and innovative word cloud visualizations, significantly enhancing research efficiency and user experience. IntellectSeeker offers academic researchers a highly customizable literature management solution with exceptional search precision and matching capabilities. The code can be found here: https://github.com/LuckyBian/ISY5001. -
A Novel Network Intrusion Detection Method for Unbalanced Data in Open Scenarios
Zihui Gong, Qiang Wang, Wenfeng He, Chuqing Cao, Liang Zheng, Yanwu YuDas Kapitel stellt eine bahnbrechende Methode zur Erkennung von Netzwerkeindringlingen vor, die entwickelt wurde, um die Herausforderungen unausgewogener Daten und sich entwickelnder Angriffsstrategien in offenen Szenarien zu bewältigen. Durch die Integration von Domänenwissen in datengesteuerte Modelle verbessert die Methode die Erkennungsgenauigkeit und Anpassungsfähigkeit. Es setzt Semantic Auto Encoder (SAE) in Kombination mit dem Broad Learning System (BLS) ein, um Probenungleichgewichte zu beheben und die Funktionsextraktion zu verbessern. Das vorgeschlagene Modell zeigt eine überlegene Leistung bei der Erkennung bekannter und unbekannter Angriffstypen, was es zu einem wertvollen Beitrag im Bereich der Netzwerksicherheit macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractWith the rapid development of information technology, network intrusion attacks continue to evolve, making the detection and defense increasingly urgent. In order to cope with the emerging threats, which are mostly unknown and can hardly be handled by traditional intrusion detection methods, we propose a data and knowledge driven solution in this work. Firstly, the knowledge revealing commonalities and features of different attacks is extracted from the public attack behaviors and encoded by usingdoc2vec. Then relying on zero-shot learning, the detection model is transferred to the accurate identification of unknown attack types. Considering that the vast majority of training samples are non-attack behaviors rather than attack behaviors, this imbalance in sample quantities often leads the detection model to be biased toward the larger class samples. We employ the SMOTE (Synthetic Minority Over-sampling Technique) method to synthesize small class samples, achieving a relatively balanced distribution of training samples across different categories. Experimental evaluation on the refined NSL-KDD dataset demonstrates the effectiveness of the proposed method in detecting network intrusion in open environments with unknown attacks. -
Explainable Knowledge-Based Learning for Online Medical Question Answering
Menglin Cui, Xiang Li, Peng QinDas Kapitel geht der Herausforderung der automatisierten Beantwortung medizinischer Fragen nach und betont die Bedeutung erklärbarer KI im Gesundheitswesen. Es wird eine hybride Methode eingeführt, die Fuzzy Mapping und aufmerksamen Schlüsselwörtern kombiniert, um die Interpretierbarkeit des Satzpaarabgleichs zu verbessern. Der vorgeschlagene zweistufige grob-feine Rahmen nutzt traditionelle Informationsgewinnung und tiefgreifendes Lernen, um die Relevanz und Präzision medizinischer Qualitätssicherungssysteme zu verbessern. Das Kapitel behandelt auch die erfolgreiche Einführung des Systems auf einer großen medizinischen Online-Plattform und demonstriert seine Anwendbarkeit und Vertrauenswürdigkeit in der realen Welt.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis study introduces an explainable AI framework for online medical Question Answering (QA) tasks, a growing need in Internet hospitals and digital healthcare services. In response to the increasing demand for automated yet accountable medical consultation, we develop an expert-curated standard QA pool with vetted medical questions and their corresponding answers. Our work introduces a novel, knowledge-driven learning framework centered around the Attentive Fuzzy Bag-of-Words (AFBoW) model for effective sentence pair matching in medical QA. The proposed two-stage coarse-to-fine sentence matching framework combines a similarity-based search engine and Siamese recurrent neural networks, ensuring a robust and explainable matching process. Experimental results on real-world medical data demonstrate the model’s efficacy in enhancing operational efficiency in online medical services while maintaining a high level of explainability. -
Energy Consumption Prediction Method for Refrigeration Systems Based on Adversarial Networks and Transformer Networks
Hu Zhang, Huifeng Liu, Youli Zhang, Ying Guo, Hongjun Dai, Minghao Shao, Hongyu XuDas Kapitel stellt das ANFormer-Modell vor, einen bahnbrechenden Ansatz zur Vorhersage des Energieverbrauchs in Kühlsystemen. Durch die Nutzung der Macht gegnerischer Netzwerke und Transformer-Netzwerke erfasst das Modell zeitliche Abhängigkeiten und enthält Informationen innerhalb von Sequenzen. Das ANFormer-Modell wurde durch umfangreiche Experimente validiert, die eine überlegene Leistung bei der Vorhersage von Trends und Werten des Energieverbrauchs zeigten. Der einzigartige generative, feindselige Rückkopplungsmechanismus des Modells trägt dazu bei, die Fehleranhäufung zu verringern und die Verallgemeinerung und Robustheit zu verbessern. Im Vergleich zu anderen Modellen zeigt der ANFormer signifikante Verbesserungen bei der Vorhersagegenauigkeit, der Handhabung von Ausreißern und der Verallgemeinerungsfähigkeit. Dieser innovative Ansatz birgt vielversprechendes Potenzial zur Optimierung der Energieeffizienz und Kostensenkung in der Kühlkettenindustrie.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractGiven the significant practical implications of energy consumption prediction for the design and energy conservation control of refrigeration systems, numerous methods have been proposed in this field. However, existing approaches face two primary challenges. Firstly, refrigeration system energy consumption is heavily influenced by external factors, making it difficult for current methods or models to capture the randomness of energy consumption data. Secondly, prediction models struggle to control error accumulation during inference, leading to difficulties in forecasting energy consumption data over extended time ranges. To address these issues, this paper proposes an energy consumption prediction model based on adversarial networks and Transformer networks—ANFormer. The ANFormer model, leveraging self-attention mechanisms and feedforward neural networks, encodes and models input sequences to forecast future energy consumption of refrigeration systems. Ultimately, validation experiments conducted on datasets from two real refrigeration systems demonstrate the accuracy and efficiency of ANFormer.The experimental results show that the ANFormer model proposed in this paper has optimized the values of MSE and RMSE by approximately 3%-15% compared to FreTS, DLinear, and NLinear models. Compared to Linear, Transformer, AutoFormer, and Informer models, the results in terms of MSE, RMSE, and MAE have all been optimized by more than 79%. -
P-Vit: A Simplified Vision Transformer Model Based on FFN and Simple Attention
Wei Hu, Mingce Hu, Fang Liu, Yi HanIm Kapitel "P-Vit: A Simplified Vision Transformer Model Based on FFN and Simple Attention" wird ein neuartiger Ansatz zur Verbesserung des Vision Transformer (ViT) -Modells vorgestellt. Durch die Integration von linearer Verarbeitung und PReLU-Aktivierungsfunktionen in die FFN- und Transformer-Encoder-Module erreicht das P-Vit-Modell eine überlegene Leistung bei der Bildklassifizierung. Die Autoren gehen mit großformatigen Bildern auf die Herausforderungen traditioneller CNNs ein und zeigen, dass P-Vit nicht nur mit traditionellen Modellen mithalten kann, sondern diese sogar übertrifft. Das Kapitel enthält detaillierte Experimente sowohl an Nvidia- als auch an Intel Arc-Grafikkarten, die wertvolle Einblicke in die Migration von Modellen auf neue Hardware liefern. Die Vereinfachung und Linearisierung des Modells führt zu signifikanten Verbesserungen bei Genauigkeit und Verarbeitungsgeschwindigkeit, was P-Vit zu einer vielversprechenden Lösung für zukünftige Computer-Vision-Anwendungen macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractVit (Vision Transformer) has proved the advantages of its effectiveness and versatility in the existing image recognition field. However, the Vit model is still more complicated in the feed-forward neural network module, i.e., the FFN module, and the encoder module of the Transformer. Although the original GELU activation function in the FFN module has fast convergence speed and high accuracy, the GELU activation function involves exponential arithmetic, which has a large amount of computation. And the adjustment of the parameters is more difficult, which is also prone to cause a series of problems, such as over-fitting. Secondly, the encoder layer of the Transformer model in the Vit module is more complex, which makes the processing of input data more difficult. The image classification method P-Vit proposed in this paper, which incorporates linear activation function, solves the above problems by adding a simple attention module, which applies the PRELU activation function to the model. The PRELU used in this paper has stronger linear expression ability, can adapt to different data distributions and task requirements, and can solve the common dead neuron problem of activation functions. Besides, in this paper, we ported the Vit model to an Intel Arc graphics card for the first time for experiments and compared it with Nvidia related graphics cards.
-
-
Backmatter
- Titel
- Knowledge Science, Engineering and Management
- Herausgegeben von
-
Cungeng Cao
Huajun Chen
Liang Zhao
Junaid Arshad
Taufiq Asyhari
Yonghao Wang
- Copyright-Jahr
- 2024
- Verlag
- Springer Nature Singapore
- Electronic ISBN
- 978-981-9754-89-2
- Print ISBN
- 978-981-9754-88-5
- DOI
- https://doi.org/10.1007/978-981-97-5489-2
Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.