Software and Data Engineering
33rd International Conference, SEDE 2024, San Diego, CA, USA, October 21-22, 2024, Proceedings
- 2025
- Buch
- Herausgegeben von
- Wenying Feng
- Nick Rahimi
- Venkatasivakumar Margapuri
- Verlag
- Springer Nature Switzerland
Über dieses Buch
Über dieses Buch
This book constitutes the proceedings of the 33rd International Conference on Software and Data Engineering, SEDE 2024, held in San Diego, California, USA, during October 21-22, 2024.
The 14 full papers presented in these proceedings were carefully reviewed and selected from 25 submissions. These papers focus on a wide range of topics within Software and Data engineering and have been categorized into the following topical sections: Software Engineering and Data Science & Artificial Intelligence.
Inhaltsverzeichnis
-
Frontmatter
-
Software Engineering and Data Science
-
Frontmatter
-
Adversarial Attack Optimization and Evaluation for Machine Learning-Based Dark Web Traffic Analysis
Nyzaireyus Harrison, Heather Broome, Yaju Shrestha, Alexander Robles, Aayush Gautam, Nick RahimiDas Kapitel vertieft die wachsende Besorgnis über feindliche Angriffe auf Modelle des maschinellen Lernens, insbesondere im Zusammenhang mit der Analyse des Dark-Web-Datenverkehrs. Es beginnt damit, die zunehmende Reichweite und Wirkung von Anwendungen des maschinellen Lernens in verschiedenen Bereichen, einschließlich der Cybersicherheit, hervorzuheben. Der Autor betont die Notwendigkeit, die Schwachstellen dieser Modelle gegenüber feindlichen Angriffen anzugehen, bei denen Daten manipuliert werden, um maschinelle Lernalgorithmen in die Irre zu führen. Die Forschung konzentriert sich auf die Verbesserung der Analyse des Netzwerkverkehrs durch die Untersuchung gegnerischer Angriffe auf Dark-Web-Daten. Die Studie gliedert sich in zwei Phasen: die Bewertung der Basisleistung von maschinellem Lernen anhand unveränderter Daten und die Simulation von Angriffsszenarien, um die Widerstandsfähigkeit von Modellen zu bewerten. Die Ergebnisse zeigen signifikante Rückgänge bei der Modellgenauigkeit, wenn sie widrigen Störungen ausgesetzt sind, was die entscheidende Notwendigkeit für eine verbesserte Robustheit maschinell lernender Erkennungssysteme unterstreicht. Das Kapitel schließt mit der Betonung der Bedeutung der Sicherung sowohl von Ausbildungs- als auch von Testdaten und ebnet den Weg für zukünftige Forschungen, die darauf abzielen, widerstandsfähigere Modelle gegen sich entwickelnde Bedrohungen im Bereich der Cybersicherheit zu entwickeln.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractMachine learning (ML) is quickly becoming one of the most transformative technologies in the field of computing. Applications of ML are wide-spread and growing exponentially, revolutionizing the future of major industries such as finance, healthcare, automotives, and more. This has made it more necessary than ever to recognize the instability created by adversarial attacks—the deliberate manipulation of data to mislead ML models. This instability must be addressed through researching the effects of adversarial attacks and how they can be better recognized. Our research explored the use of adversarial attacks in dark web network traffic analysis by first improving our understanding of how adversarial attacks could be optimized. We manipulated a dataset of dark web traffic data through the analysis of confusion matrices and Euclidean distances, aiming to cause maximum confusion for each of our models. We then trained and tested each model in a variety of scenarios to further our understanding of weaknesses in both the traffic data and the machine learning techniques employed. -
Enhancing Software Requirements Classification with Machine Learning and Feature Selection Techniques
Daniel Lanfear, Mina Maleki, Shadi BanitaanDas Kapitel diskutiert die entscheidende Rolle des Requirements Engineering im Lebenszyklus der Softwareentwicklung, wobei der Schwerpunkt auf der Klassifizierung funktionaler und nicht funktionaler Anforderungen liegt. Er untersucht die Herausforderungen der manuellen Klassifizierung und die Vorteile automatisierter Methoden, insbesondere des maschinellen Lernens. Die Autoren untersuchen verschiedene Techniken der Verarbeitung natürlicher Sprache, wie Stopp-Wortentfernung, Stammesbildung und Lemmatisierung, und bewerten die Effektivität maschineller Lernalgorithmen wie KNN, DT, RF, MNB, LR und SVM. Der Hauptbeitrag ist eine neuartige Methode zur Auswahl von Merkmalen, die die Mehrklassenklassifizierung verbessert und ihre überlegene Leistung im Vergleich zu bestehenden Methoden unter Beweis stellt. Die Forschungsergebnisse werden durch umfangreiche Experimente und Analysen validiert und liefern wertvolle Erkenntnisse zur Verbesserung der Klassifizierung von Softwareanforderungen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractRequirements engineers have the responsibility for classifying software requirements into functional and nonfunctional variants. As software architects need quality requirements to be known to get their job done, machine learning is employed to speed up and add consistency to the process of identifying and categorizing requirements so that effort may be spent more effectively. We experimented with the effects of different machine learning algorithms, as well as different pre-processing and feature selection techniques. It was determined that, for this application, stop words should not be removed and that performing lemmatization on words provides the most effective features for classification. Furthermore, after finalizing our choices of pre-processing techniques and algorithm to use, we proposed a modification to the Extensive Feature Selector by gathering the most distinctive words in each category and using a list of those as our main features. By using a threshold of 0.013, we obtained an F1 score of 0.787, which is an improvement on the base Enhanced Feature Selector’s F1 score of 0.761 with the same number of word features. -
Embracing Residuality Theory in Software Architecture to Address Uncertainty: Key Challenges and Strategies
Aziz FellahDas Kapitel geht auf die entscheidende Rolle der Softwarearchitektur in modernen, komplexen Systemen ein und beleuchtet die Herausforderungen, die von Unsicherheit ausgehen. Es stellt O 'Reillys Residualitätstheorie vor, die einen neuartigen Ansatz zur Bewältigung von Unsicherheiten bietet, indem Systeme konzipiert werden, die unter Stress und Veränderungen gedeihen. Das Kapitel schlägt drei Rahmenwerke vor - Residual Space Exploration (RSE), Residual Dynamic Management (RDM) und Residual Finite State Machine (R-FSM) - um Restmodelle von Kandidaten zu bewerten und zu verwalten, Unsicherheiten dynamisch zu handhaben und die Restkomplexität von Modellen zu steuern. Diese Rahmenbedingungen ermöglichen es Softwarearchitekten, Systeme zu entwickeln, die nicht nur widerstandsfähig und anpassungsfähig, sondern auch antifragil sind und in der Lage sind, sich angesichts von Unsicherheit zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe source of uncertainty in software architecture isn’t impossible to predict, but it is certainly challenging given its inherent complexity and the dynamic environments of technology, external factors and events that can potentially impact the system’s operation and stability. Residuality theory, in particular, provides a new ideology that challenges conventional approaches to software design. In this paper, we propose a Residual Dynamic Management (RDM) framework for software architecture to manage residual components and stressors that constitute a residual system. RDM ensures that the system not only remains robust and capable of thriving but also flourishes in the face of uncertainty, dynamic changes, and unpredictable conditions. Furthermore, we propose a model called Residual Finite State Machines (R-FSM) to incorporate residuality complexity into software architecture, enhancing the overall system’s ability to manage unforeseen changes and effectively benefit from them through the concept of antifragility. -
Zoned Role-Based Approach to System Design, Implementation, and Access Control of Integrated Web Applications
Harris WangDas Kapitel stellt einen Zoned Role-Based (ZRB) Ansatz für Systemdesign, Implementierung und Zugangskontrolle für integrierte Webanwendungen vor, der die Notwendigkeit effektiver Zusammenarbeit und präzisen Zugriffsmanagements in komplexen Organisationen adressiert. Darin werden die Grenzen bestehender Methoden und die Herausforderungen der Anbieterintegration skizziert und die Notwendigkeit eines maßgeschneiderten Ansatzes hervorgehoben. Die ZRB-Methodik basiert auf vier Schlüsselkonzepten: Zonen, Apps, Rollen und Benutzer und bietet einen strukturierten Rahmen für die Konzeption und Implementierung integrierter Websysteme. Das Kapitel beschreibt die theoretischen Grundlagen, das Systemdesign, die Implementierung und die Zugangskontrollmechanismen des ZRB-Ansatzes und zeigt seine Skalierbarkeit und Benutzerfreundlichkeit auf. Außerdem werden die praktischen Anwendungen des ZRB in verschiedenen Bereichen wie Bildung, Gesundheitswesen und Forschung diskutiert und seine Effizienz und Effektivität bei der Verwaltung komplexer Organisationsstrukturen hervorgehoben.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn today’s world almost all organizations heavily depend on Web-based systems or web applications for their day-to-day operations. In this paper, we will present zoned role-based (ZRB) approach to the design and implementation of integrated web-based systems for organizations and enterprises. In contrast to Role-Based Access Control (RBAC), well-known in computer security, this approach can be used throughout the entire life cycle of a web-based system, and can make the design, implementation, deployment and maintenance of integrated web system more efficient and effective for all organizations and enterprises. In this approach, areas of business, or divisions, departments or designated groups of employees for specific missions are called zones, and for each zone a set of roles are defined; for each role, some web apps, each of which consists of a set of operations, are designed and implemented for users in their respective roles to conduct their business in each associated zone; and control of user access to each operation can then be done explicitly by associating each operation with roles by inference based on the relationships between roles. Within such a zoned role-based integrated system, once a user has roles assigned in each zone he or she is affiliated, he will be able to access, precisely, all the apps and operations needed to fulfill his or her role or roles in respective zone, with only one authentication. Such integration is rather important and convenient especially when users may be affiliated with multiple zones or play multiple roles. -
Enhancing IoT Network Defense: A Comparative Study of Machine Learning Algorithms for Attack Classification
Alkendria McNair, Divine Precious-Esue, Soundra Newson, Nick RahimiDas Kapitel geht der Anwendung maschineller Lernalgorithmen zur Stärkung der IoT-Netzabwehr gegen Cyber-Angriffe nach. Es stellt den CICIoTDataset2023 vor, einen umfassenden Datensatz, der verwendet wird, um maschinelle Lernmodelle für die Klassifizierung von Angriffen zu schulen und auszuwerten. Die Studie vergleicht die Leistung von Decision Tree, Logistic Regression, Naive Bayes und Random Forest Algorithmen, wobei Random Forest sich als die genaueste erwiesen hat. Die Forschung befasst sich auch mit der Herausforderung des Klassenungleichgewichts und der Überanpassung und setzt Techniken wie Oversampling und Regulierung ein, um die Leistung des Modells zu verbessern. Darüber hinaus enthält das Kapitel eine detaillierte Analyse der Leistung der Modelle in verschiedenen IoT-Angriffskategorien, darunter Web-Based, Spoofing, Reconnaissance, Mirai, DoS, DDoS und Brute Force-Angriffe, wobei die Stärken und Grenzen der einzelnen Algorithmen hervorgehoben werden. Die Ergebnisse unterstreichen die entscheidende Rolle des maschinellen Lernens bei der Stärkung der IoT-Sicherheit und bieten praktische Erkenntnisse für die Entwicklung robuster Verteidigungsstrategien gegen sich entwickelnde Cyber-Bedrohungen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractAs the Internet of Things (IoT) continues to expand rapidly, securing these interconnected devices and networks from cyber threats has become a critical challenge. This research investigates the application of machine learning techniques for accurately classifying IoT network traffic data to discriminate between benign activities and various types of cyber-attacks targeting IoT systems. We propose a program that employs multiple machine learning algorithms, including Decision Tree, Logistic Regression, Naive Bayes, and Random Forest, trained on a comprehensive IoT network traffic dataset the CICIoTDataset2023. Through extensive experiments, we evaluate the performance of these classification models in detecting different IoT attack categories such as web-based attacks, spoofing, denial-of-service, Mirai, reconnaissance, distributed denial-of-service, and brute force attacks. Our results demonstrate the efficacy of machine learning approaches, with the Random Forest algorithm emerging as the top performer, achieving an overall accuracy of 98.41%. We also address challenges like class imbalance through hybrid sampling techniques and implement strategies like regularization and hyperparameter tuning to mitigate overfitting and enhance model generalization. Additionally, we conduct a performance analysis of the classification models on different IoT attack categories to gain insights into their specific strengths and weaknesses. By leveraging machine learning for accurate IoT attack classification, this research contributes to developing robust security solutions that can proactively identify and mitigate cyber threats, enabling a more secure IoT ecosystem. The findings pave the way for safeguarding interconnected devices, protecting user privacy, and fostering confidence in the widespread adoption of IoT technologies. -
A Survey and Insights on Modern Game Development Processes for Software Engineering Education
Aakanksha Shrestha, Fei Zuo, Gang Qian, Junghwan RheeDieses Kapitel untersucht die komplexen Prozesse der modernen Spieleentwicklung und betont die Unterschiede zur traditionellen Softwareentwicklung. Er diskutiert die Entwicklung der Spieltechnologie, die Komplexität von Spielprojekten und den Einsatz von Game Engines. Der Autor stellt ein detailliertes Modell des Spielentwicklungsprozesses vor, das aus elf Kernkomponenten besteht, und gibt Studenten und Neulingen wertvolle Einblicke. Das Kapitel geht auch auf den Arbeitsaufwand bei der Spieleentwicklung, die Auswirkungen der Technologie und die Herausforderungen ein, vor denen Entwickler stehen. Darüber hinaus bietet es praktische Ratschläge für akademische Projekte und betont die Bedeutung sorgfältiger Planung und iterativer Entwicklung. Das Kapitel schließt mit einem Vergleich der Spielentwicklungsprozesse in verschiedenen Kontexten und hebt die einzigartigen Herausforderungen und Chancen in diesem Bereich hervor.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe video game industry has a fast-growing multi-billiondollar market. Due to the fast evolution of game technologies and industry, there is a pressing need to survey and analyze the current game development processes so that students who have an interest in game development can have better knowledge and skills for their projects in game software engineering education. In this paper, we present our survey and analysis of multiple aspects of modern game development and provide useful insights for students who want to work on game development. We also present a model of the common components of the game development process as well as the amount of the workload involved. This can help students, who are interested in developing their own games, craft a realistic plan for such projects. -
Evaluating the Impact of Combinatorial Interaction Testing on Test Automation: A Case Study from Industry
Feras Daoud, Miroslav Bures, Zdenek David, Petr SyrovatkaDieses Kapitel befasst sich mit der Anwendung von Combinatorial Interaction Testing (CIT) im Softwaretest und konzentriert sich auf seine Auswirkungen auf die Testautomatisierung und Fehlererkennung. Sie präsentiert eine Fallstudie aus der Industrie, in der CIT mit herkömmlichen Testmethoden verglichen wird. Die Studie unterstreicht die Effizienzgewinne des CIT bei der Reduzierung der Erstellungs- und Ausführungszeit von Testfällen bei gleichzeitiger Verbesserung der Fehlererkennungsraten. Außerdem werden die Effektivität verschiedener CIT-Techniken wie paarweises Testen und kombinatorische Arrays mit gemischter Festigkeit sowie deren Auswirkungen auf Testautomatisierungssysteme untersucht. Das Kapitel bietet wertvolle Einblicke in die praktischen Vorteile von CIT und betont sein Potenzial, den Testprozess zu rationalisieren und die Softwarequalität zu verbessern. Durch die Einbeziehung historischer und künstlicher Defekte aus der realen Welt bietet die Studie eine umfassende Bewertung der Fähigkeiten des CIT, was sie zu einem Pflichtlektüre für Fachleute macht, die ihre Software-Teststrategien optimieren wollen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractSoftware testing regularly involves numerous setups and user inputs, leading to a combinatorial explosion of test cases. While Combinatorial Interaction Testing (CIT) has been theoretically investigated, its effectiveness in real-world scenarios remains unclear [1]. This research fills that gap by utilizing CIT in some live software projects. We led two studies: the first focuses on optimizing user input testing in jTrac, and the second focused on managing system configurations in Redmine, a comparative web application. We looked at CIT to customary testing strategies, breaking down components like test design time, test automation, test execution, suite size, and defect detection. The investigation gave valuable insights into enhancing CIT execution and reception. The results are promising. With CIT, the number of required test cases is significantly reduced, but at the same time, defect detection is improved. In the first study, the average time to detect a defect was 1.40 h (design, automation, execution, and evaluation) compared to 0.35 h with CIT. Similar patterns emerged in the second study. These findings have important implications for both researchers and organizations. They highlight CIT’s promise for software testing, including decreasing test case burden and perhaps improving defect detection rates. This study provides practical evidence for organizations and testers looking to improve their testing procedures. -
JSMBox—A Runtime Monitoring Framework for Analyzing and Classifying Malicious JavaScript
Phu H. Phung, Allen Varghese, Bojue Wang, Yu Zhao, Chong YuDas Kapitel behandelt die Allgegenwärtigkeit von JavaScript in der Webentwicklung und die damit verbundenen Risiken bösartigen JavaScript-Codes. Es zeigt die Grenzen traditioneller statischer und dynamischer Analysemethoden bei der Erkennung solchen Codes auf und stellt JSMBox vor, ein Runtime Monitoring Framework, das einen integrierten Sicherheitsreferenzmonitor nutzt, um JavaScript-Verhaltensweisen effektiv zu erfassen. Das Framework ist so konzipiert, dass es leicht, plattformunabhängig und hochgradig anpassbar ist, was es zu einer robusten Lösung für die Analyse und Klassifizierung bösartigen JavaScripts macht. Das Kapitel stellt auch ein motivierendes Beispiel, einen technischen Ansatz und Implementierungsdetails von JSMBox vor, zeigt seine Effektivität bei der Überwindung von Umgehungstechniken und liefert eine umfassende Bewertung seiner Leistung anhand von maschinellen Lernmodellen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn recent years, there has been a notable increase in the prevalence of malicious websites, leading to a majority of cyber-attacks and data breaches. Malicious websites often incorporate JavaScript code to execute attacks on web browsers. Despite existing methodologies documented in the literature, the analysis and detection of malicious JavaScript pose significant challenges due to the dynamic nature of JavaScript and the use of advanced evasion techniques. These challenges motivate the need for an innovative and efficient approach to comprehensively analyze the code to identify its malicious intent. In this paper, we introduce a monitoring approach for analyzing JavaScript code, which can capture all of the code’s features at runtime. Our method leverages the security reference monitor technique to mediate JavaScript security-sensitive executions, including function calls and property accesses. Therefore, the proposed method can capture behaviors at runtime regardless of how the code is written, even with recent advanced evasion techniques like WebAssembly diversification. We have implemented our approach as a JavaScript dynamic analysis framework called JSMBox in a Chromium-based browser extension. Our experiments demonstrated that JSMBox is capable of effectively countering sophisticated evasion techniques found in modern malicious JavaScript code, including WebAssembly diversification. We have also evaluated the framework’s ability to classify malicious behaviors based on a large-scale raw dataset comprising about 20,000 malicious and benign webpages. Our developed tool automatically launches the browser to execute these webpages, records JavaScript code execution events, and captures their execution frequency as extracted features. We have tested the extracted dataset with various machine-learning models, yielding promising experimental results that confirm the effectiveness of our approach and achieve a high accuracy rate. -
Securing Wireless Sensor Network from Rank Attack Using Fast Sensor Data Encryption and Decryption Protocol
Eden Teshome HundeDas Kapitel geht auf die Sicherheitsherausforderungen von Wireless Sensor and Actuator Networks (WSANs) ein und konzentriert sich dabei insbesondere auf die Schwachstellen des Routing-Protokolls für stromsparende und verlustbehaftete Netzwerke (RPL), um Angriffe zu klassifizieren. Es führt einen neuartigen Sicherheitsansatz ein, der ein verteiltes RC5-Design (NDRC5) verwendet, um solche Angriffe zu identifizieren und zu verhindern. Die Studie unterstreicht die Bedeutung effizienter kryptographischer Operationen und Verifikationsverfahren, um die Sicherheit des Netzwerks zu erhöhen. Das vorgeschlagene System gewährleistet die Datenintegrität und minimiert die Rechen- und Kommunikationskosten, was es zu einer herausragenden Lösung im Bereich der WSAN-Sicherheit macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractWireless sensor and actuator networks (WSANs) are of great significance in the realm of industrial automation systems. However, the aspect of security in WSANs has been somewhat overlooked. One particular security concern is the rank attack, where malicious actors actively manipulate the transmission of messages from neighboring nodes. This undermines the entire network's data collection and routing operations, resulting in a significant degradation of network performance. This attack adversely affects crucial metrics such as packet delivery ratio (PDR), latency, and power consumption, ultimately reducing the network's overall lifespan. In order to foster trust among nodes, ensure accurate delivery of data to end users, safeguard shared data in the cloud from security breaches, and prevent rank attacks within the network, it is crucial to protect the network against such malicious activities. This research paper aims to introduce an enhanced version of the Routing Protocol for Low-Power and Lossy Networks (RPL) protocol, specifically tailored to identify and eliminate rank attacks within existing WSANs. The effectiveness of the new protocol will be assessed through experimentation using Zolertia (Z1) sensors in the Cooja network simulator. To minimize network overhead on the sensors’ side, the proposed scheme limits cryptographic operations to symmetric key-based mechanisms such as XORing, hash functions, and encryption. These operations will be implemented using a C-compiler and verified through the ModelSIM Altera SE edition 11.0 simulator.
-
-
Artificial Intelligence
-
Frontmatter
-
Enhancing Transparency and Privacy in Financial Fraud Detection: The Integration of Explainable AI and Federated Learning
Waquar Ahmad, Aditya Vashist, Neel Sinha, Manisha Prasad, Vishesh Shrivastava, Junaid Hussain MuzamalDas Kapitel vertieft sich in das kritische Thema der Aufdeckung von Finanzbetrug, insbesondere in Bezug auf bankbezogenen Betrug. Er hebt die Herausforderungen hervor, die sich aus der Komplexität und dem sich wandelnden Wesen betrügerischer Aktivitäten ergeben, und betont die Notwendigkeit fortschrittlicher Erkennungsmethoden. Die Autoren schlagen einen neuartigen Ansatz vor, der erklärbare KI (XAI) und föderiertes Lernen (FL) integriert, um diesen Herausforderungen zu begegnen. Diese Methode gewährleistet den Datenschutz, indem sie lokale Modellschulungen ermöglicht und nur Modellaktualisierungen weitergibt, was die Integrität und Sicherheit von Finanztransaktionen insgesamt verbessert. Die Integration von XAI sorgt für Transparenz in Entscheidungsprozessen, was in sensiblen Anwendungen wie dem Bankwesen von entscheidender Bedeutung ist. Das Kapitel skizziert die Implementierungsdetails, einschließlich Datenvorverarbeitung, Modellarchitektur und die Verwendung von SHAP-Werten zur Erklärbarkeit des Modells. Die Ergebnisse zeigen die Effektivität des FL-Modells bei der Erkennung betrügerischer Transaktionen mit hoher Genauigkeit, Präzision, Rückruf und F1-Score. Diese Forschung unterstreicht das Potenzial von FL bei der Entwicklung skalierbarer, datenschutzerhaltender und interpretierbarer Modelle für kritische Anwendungen wie die Erkennung von Bankbetrug.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe pervasive issue of fraudulent transactions presents a considerable challenge for financial institutions globally. Developing innovative fraud detection systems is critical to maintaining customer confidence. However, several factors complicate the creating of effective and efficient fraud detection systems. Notably, fraudulent transactions are infrequent, resulting in imbalanced transaction datasets where legitimate transactions vastly outnumber instances of fraud. This data imbalance can concede the performance of fraud detection. Additionally, stringent data privacy regulations prevent the sharing of customer data, hindering the development of high-performing centralized models. Furthermore, fraud detection mechanisms must remain transparent to avoid impairing the user experience. This research proposes an approach utilizing Federated Learning (FL) with Explainable Artificial Intelligence (XAI) to overcome these obstacles. FL allows financial organizations to train fraud detection models collaboratively without requiring direct data sharing. So, customer confidentiality and data privacy are never compromised. Simultaneously, the incorporation of XAI guarantees that the model’s predictions are interpretable by human experts. Experimental evaluations using real-time transaction datasets consistently demonstrate that the FL-based fraud detection system performs well. This study establishes the potential of FL as a reliable, privacy-preserving tool in combating fraud. -
Enhancing Generative AI Chatbot Accuracy Using Knowledge Graph
Ajay Bandi, Jameer Babu, Ruida Zeng, Sai Ram MuthyalaDas Kapitel befasst sich mit dem Einsatz generativer KI und Wissensgrafiken zur Verbesserung der Chatbot-Genauigkeit. Es stellt das Konzept der RAG vor und diskutiert ihre Vorteile bei der Verbesserung des kontextuellen Verständnisses und der Verringerung von Halluzinationen. Die Implementierung eines Chatbots für das MSACS-Programm ist detailliert, einschließlich der verwendeten Tools und Technologien wie Python, Neo4j und OpenAI GPT-3.5-Turbo-0125. Das Kapitel präsentiert auch eine gründliche Bewertung der Leistung des Chatbots über verschiedene Arten von Abfragen hinweg, wobei die Stärken und Verbesserungsbereiche des Chatbots hervorgehoben werden. Die Forschung endet mit einem vielversprechenden Rahmen für die Entwicklung präziserer und zuverlässigerer KI-gestützter Kommunikationswerkzeuge.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn recent years, generative AI chatbots have significantly improved in their ability to simulate human-like conversations. However, ensuring the accuracy and contextual relevance of their responses remains a challenge. This paper presents an innovative approach to enhancing the accuracy of generative AI chatbots by integrating knowledge graphs using Neo4j. We demonstrate how combining structured data from Knowledge Graphs with advanced large language models can result in more accurate and context-aware chatbot interactions. By implementing this approach, we aim to provide a robust framework for developing intelligent chatbots that can deliver precise and contextually appropriate responses. We created three categories of test cases: Data-Relevant Inquiries, Non-Contextual Queries, and Contextually Relevant but Data-Irrelevant Questions. The accuracy obtained for the data-relevant test cases was 91.44%. -
ReVisE: Emulated Visual Outfit Generation from User Reviews Using Generative-AI
Samar Rahimi Rosas, Subash Neupane, Shaswata Mitra, Sudip MittalDieses Kapitel stellt ReVisE vor, ein bahnbrechendes Rahmenwerk, das generative KI nutzt, um Nachhaltigkeitsprobleme in der Modeindustrie anzugehen. Durch die Kombination von großen Sprachmodellen und Bildgenerierungsmodellen übersetzt ReVisE Kundenfeedback in realistische visuelle Darstellungen verbesserter Modeprodukte. Das Rahmenwerk adressiert die Herausforderungen von Überproduktion und Verschwendung, indem es es Designern ermöglicht, die visuelle Outfit-Generierung anhand von Benutzerbewertungen nachzuahmen. Dieser datengestützte Ansatz trägt dazu bei, den Designprozess zu rationalisieren, Kosten zu senken und nachhaltigere und kundenzentriertere Modeprodukte zu schaffen. Das Kapitel bietet eine detaillierte Erklärung der ReVisE-Architektur, ihrer Komponenten und der Experimente, die durchgeführt wurden, um ihre Wirksamkeit zu bewerten. Außerdem wird das Potenzial für zukünftige Forschung und Entwicklung in diesem Bereich diskutiert.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe fashion industry faces significant challenges due to overproduction and waste, often driven by uncertainty about consumer preferences. This paper presents ReVisE, a novel framework leveraging generative AI to address this issue by emulating outfit generation from user reviews. ReVisE combines a text-to-text Large Language Model (LLM) and a text-to-image Stable Diffusion (SD) model to create virtual outfits based on customer feedback. The LLM consolidates user reviews to extract desired improvements and feedback, and the SD model utilizes these insights to produce realistic visual representations of the improved product. Our framework allows designers to evaluate potential designs and identify areas for improvement without physically producing multiple prototypes, thereby reducing waste and accelerating the design process. Experimental results conducted on the Amazon fashion item reviews demonstrate the effectiveness of ReVisE, showing promising results with both multimodal and human evaluations. -
A Case Study on AI to Automate Simulation Modelling
Uchechukwu Obinwanne, Wenying FengDieses Kapitel befasst sich mit der Anwendung von Large Language Models (LLMs) zur Automatisierung der Simulationsmodellierung, insbesondere mit der diskreten Ereignissimulation (DES). Es stellt eine Fallstudie vor, die LLMs wie GPT-4 und Llama 3 verwendet, um Warteschlangen-Modelle aus beschreibenden Eingabeaufforderungen in Python zu erzeugen. Die Studie vergleicht die Leistung dieser LLMs mit einer Benchmark-Simulationssprache, dem General Purpose Simulation System (GPSS). Die Autoren untersuchen die Auswirkungen von Prompt Engineering auf die Qualität der generierten Modelle und diskutieren mögliche Verzerrungen und ethische Überlegungen, LLMs zur Simulation einzusetzen. Das Kapitel hebt die Vorteile des Einsatzes von LLMs zur Beschleunigung von Arbeitsabläufen und zur Unterstützung von DES hervor und betont zugleich die Notwendigkeit menschlicher Aufsicht, um Risiken und Verzerrungen abzumildern. Insgesamt bietet es einen umfassenden Einblick in die aktuellen Fähigkeiten und Grenzen von LLMs im Kontext von DES und ist daher eine wertvolle Lektüre für Fachleute auf diesem Gebiet.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractWe explore the use of Large Language Models (LLMs) for Discrete Event Simulation (DES). While DES typically involves both domain and technical expertise, our study demonstrates the potential of LLMs in generating queueing models in Python. The code outputs generated by the LLMs are compared to solutions implemented in GPSS (General Purpose Simulation System), a simulation language for DES. Prompt engineering is also reviewed, showcasing its impact on the quality of code generated by LLMs. Our results show that while LLMs assist in speeding up DES, they are far from replacing human experts. However, considering the steady advancements in Artificial Intelligence (AI), there is a promising future for more sophisticated and capable models. -
Racial Disparity in Breast Cancer Prognosis
M. Mehdi Owrang O, Fariba Jafari HorestaniDas Kapitel "Racial Disparity in Breast Cancer Prognosis" untersucht die Auswirkungen der Rasse auf die Überlebensraten von Brustkrebs mithilfe von Data-Mining-Techniken. Es beginnt mit der Einführung von Brustkrebs und seiner Prävalenz und vertieft sich dann in den Einsatz von Data Mining, um die Überlebensfähigkeit vorherzusagen. Die Studie konzentriert sich auf den SEER-Datensatz und analysiert verschiedene prognostische Faktoren wie Tumorgröße, Lymphknotenbeteiligung und Rasse. Zu den wichtigsten Ergebnissen zählen höhere Überlebensraten japanischer Patienten, möglicherweise aufgrund genetischer und umweltbedingter Faktoren. Das Kapitel diskutiert auch die Grenzen des SEER-Datensatzes und die Notwendigkeit weiterer Forschung unter Einbeziehung zusätzlicher Faktoren. Der Einsatz von Assoziationsregeln und statistischen Analysen bietet eine robuste Methodik, um ethnische Unterschiede bei der Brustkrebsprognose zu verstehen, was dieses Kapitel zu einer wertvollen Ressource für Mediziner und Forscher macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn this work, we looked at the significance of the race factor in breast cancer prognosis, using Association rules data mining technique. We utilized XLMiner data mining tool for our experiments. The data used is the National Cancer Institute’s SEER Public-Use Data. Several experiments were conducted based on the prognostic factors including those of Age, Behavior code, Stage of cancer, Grade, and Marital status with respect to Race. Our discovered association rules indicate that Japanese patients have better survival rate than White patients and White patients have better survival rate than Black patients. The racial disparity in breast cancer prognosis is shown to be statistically significant.
-
-
Backmatter
- Titel
- Software and Data Engineering
- Herausgegeben von
-
Wenying Feng
Nick Rahimi
Venkatasivakumar Margapuri
- Copyright-Jahr
- 2025
- Verlag
- Springer Nature Switzerland
- Electronic ISBN
- 978-3-031-75201-8
- Print ISBN
- 978-3-031-75200-1
- DOI
- https://doi.org/10.1007/978-3-031-75201-8
Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.