Proceedings of Fifth International Conference on Computing and Communication Networks
ICCCN 2025, Volume 9
- 2026
- Buch
- Herausgegeben von
- Gia-Nhu Nguyen
- Abhishek Swaroop
- Pancham Shukla
- Buchreihe
- Lecture Notes in Networks and Systems
- Verlag
- Springer Nature Switzerland
Über dieses Buch
Über dieses Buch
This book includes selected peer-reviewed papers presented at Fifth International Conference on Computing and Communication Networks (ICCCN 2025), held at Manchester Metropolitan University, UK, during 1–2 August 2025. The book covers topics of network and computing technologies, artificial intelligence and machine learning, security and privacy, communication systems, cyber physical systems, data analytics, cyber security for industry 4.0, and smart and sustainable environmental systems.
Inhaltsverzeichnis
-
Frontmatter
-
AO Modelling for Load Balancing in Cloud Environment with Comparative Study
Shreya Tyagi, Neeta Singh, Naresh KumarDieses Kapitel geht auf die Herausforderungen des Lastausgleichs in Cloud-Umgebungen ein und stellt den Aquila Optimizer (AO) -Algorithmus als vielversprechende Lösung vor. Der Text beginnt mit einem Überblick über Cloud Computing und die Bedeutung des Lastausgleichs für die Optimierung von Ressourcennutzung und Leistung. Anschließend werden verschiedene von der Natur inspirierte Algorithmen eingeführt, wie der Honeybee Foraging Algorithm, der Whale Optimization Algorithm und Harris Hawks Optimizer, die ihre Stärken und Grenzen aufzeigen. Der Kern des Kapitels konzentriert sich auf den AO-Algorithmus, beschreibt seine Vier-Phasen-Jagdstrategie und wie sie sich in effektiver Aufgabenplanung niederschlägt. Der Text enthält eine mathematische Formulierung des Algorithmus und diskutiert seine Implementierung in der CloudSim-Umgebung. Leistungskennzahlen wie Makespan, Lastungleichgewicht und Ressourcennutzung werden analysiert, um die Effektivität von AO zu demonstrieren. Das Kapitel schließt mit einer vergleichenden Bewertung von AO gegenüber anderen Algorithmen, die nahelegt, dass AO bei entsprechender Hybridisierung andere übertreffen könnte. Darüber hinaus wird das Potenzial für adaptive und selbstabgestimmte Versionen dieser Algorithmen untersucht, um sich dynamisch an sich ändernde Arbeitslasten und Netzwerkbedingungen anzupassen. Der Text betont die Notwendigkeit weiterer Forschung an Hybridmodellen, die die Stärken mehrerer metaheuristischer Ansätze kombinieren, um robustere und skalierbarere Lastausgleichslösungen zu erreichen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractCloud load balancing is crucial for ensuring efficient use of resources and quality of service in modern cloud computing. However, achieving an optimal balance of workloads across servers is challenging due to the dynamic, large-scale, and NP-hard nature of the task scheduling problem. In this paper, a novel task scheduling optimization algorithm based on hunting behavior of the Aquila (eagle). The algorithm is modeled on four strategic phases: global exploration; vertical stoop to identify a broad search space; divergent exploration to discover diverse scheduling solutions; convergent exploitation to refine promising task resource mappings; and final exploitation to capture the optimal scheduling configuration. The Aquila-inspired approach balances exploration and exploitation to avoid local optima and improve scheduling efficiency. Experimental results show efficient load distribution, shortening runtime, and better energy consumption compared to existing algorithms. The performance of the Aquila Optimization (AO) algorithm improves its efficiency to 96.01%. -
Bias Detection in Legal Texts Using Natural Language Processing
Rasik Gupta, Puneet Sapra, Nilisha Tanwar, KavitaDieses Kapitel befasst sich mit der Anwendung von Natural Language Processing (NLP), um Verzerrungen in Rechtstexten aufzudecken - ein kritisches Thema, da rechtliche Dokumente soziale Ungleichheiten häufig widerspiegeln und fortschreiben. Der Text überprüft aktuelle Studien und Methoden, die NLP-Techniken einsetzen, um Vorurteile in Bezug auf Rasse, Geschlecht und sozioökonomischen Status in der Rechtssprache zu identifizieren und anzugehen. Es untersucht die Entwicklung von Legal NLP, von einfachen Keyword-Suchen bis hin zu fortgeschrittenen Modellen wie Legal-BERT und JurisBERT, die juristische Terminologie und Satzstrukturen analysieren können, um Voreingenommenheiten zu erkennen. In diesem Kapitel werden auch die Herausforderungen und Grenzen des Einsatzes von NLP zur Erkennung von Vorurteilen diskutiert, darunter rechtliche Unterschiede und die Notwendigkeit multilingualer und grenzüberschreitender Modelle. Es unterstreicht die Bedeutung von Fairness und Transparenz in rechtlichen KI-Systemen und schlägt zukünftige Forschungsrichtungen vor, wie etwa die Entwicklung voreingenommener NLP-Tools und die Förderung der Zusammenarbeit zwischen Computerlinguisten, Rechtsexperten und Ethikern. Das Kapitel schließt mit der Betonung der Notwendigkeit von Erklärbarkeit und Interpretierbarkeit in rechtlichen NLP-Systemen, um Transparenz und Rechenschaftspflicht im Rechtssystem zu gewährleisten.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractPersonal bias was previously considered rare in the law, but research has revealed that it is a significant issue within the legal system. Thanks to Natural Language Processing, now it is easier to systematically study and identify biases in case law, legislative materials, judgments, and sentencing decisions. The authors present how text analysis and natural language processing help find and analyze bias hidden within legal documents. By examining and reviewing recent peer-reviewed research published between 2020 and 2025, a critical evaluation of model frameworks, data used, and metrics to judge fairness has been performed. Transformer models, especially BERT, and fairness toolkits like AIF360 and FairLex have garnered significant attention. It was discovered that NLP technology can detect subtle bias in legal texts, but issues keep coming up when data, its use in other countries, and understanding its predictions are concerned. It has been shown that bias detection using NLP is possible and important, so extra research and implementation in the legal field are now needed for better justice transparency. -
Hybrid Adaptive Security Model (HASM): Enhancing Network Protection Through Cryptographic Innovation
Kondwani Ecclesiastico Mussa, Pooja Sharma, Narinder Kumar, Kiranpreet Kaur, ShilpaDas Hybrid Adaptive Security Model (HASM) ist ein bahnbrechendes Rahmenwerk, das entwickelt wurde, um die Netzwerksicherheit gegen sich entwickelnde Bedrohungen zu verbessern. Dieses Modell integriert vier wichtige Sicherheitsebenen: Blockchain-basierte Authentifizierung zur dezentralen Identitätsverifizierung, KI-gestützte Bedrohungserkennung zur Überwachung von Anomalien in Echtzeit, quantenresistente Verschlüsselung zur Abwehr von Quantencomputerangriffen und leichte IoT-Sicherheit zum Schutz ressourcenbeschränkter Geräte. Der Text geht auf die zunehmende Komplexität digitaler Bedrohungen und die Unzulänglichkeiten traditioneller Sicherheitsmaßnahmen ein. Sie unterstreicht die Notwendigkeit fortgeschrittener kryptographischer Techniken und künstlicher Intelligenz, um moderne Cyber-Bedrohungen zu bekämpfen. Die experimentelle Analyse, die mit Google Colab durchgeführt wurde, zeigt die überlegene Leistung von HASM in Bezug auf Erkennungsgenauigkeit, falsch positive Raten und Verschlüsselungseffizienz. Die Anpassungsfähigkeit und Skalierbarkeit des Modells machen es zu einer robusten Lösung sowohl für zentralisierte als auch für verteilte Netzwerke. Die Schlussfolgerung betont das Potenzial von HASM, die Netzwerksicherheit zu revolutionieren und skizziert zukünftige Forschungsrichtungen, um seine Anwendbarkeit in der realen Welt zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractWe are becoming more and more dependent on digital communication, which makes protecting data from cyber threats a top priority. Threats from quantum computing, complex cyberattacks, and weaknesses in IoT devices are only a few examples of the modern security issues that traditional cryptographic models and network security protocols frequently fail to handle [1, 2]. Cybercriminals are using vulnerabilities in antiquated security systems more frequently as technology develops, which makes the need for creative defense tactics to grow. The Hybrid Adaptive Security Model (HASM) proposed in this study integrates cutting-edge cryptographic innovations such blockchain-based authentication methods, artificial intelligence (AI)-driven anomaly detection, and quantum-resistant encryption [3, 4]. HASM provides a multi-layered, dynamic defense strategy that adjusts to threats in real time while preserving system confidentiality and integrity. Post-quantum cryptography (PQR) algorithms like New Hope, machine learning methods like Isolation Forest for anomaly detection, and smart contracts for decentralized identity verification are some of the elements of this architecture that we develop and assess. When compared to traditional systems, the testing results demonstrate a significant improvement in threat detection accuracy (96%), increased encryption strength, and decreased susceptibility in authentication processes. -
HBA-DT: A Hybrid Metaheuristic Honey Badger and Decision Table Tool for Automated Black-Box Software Testing Optimization
Zainab M. Alshamaa, Nada N.SaleemDieses Kapitel untersucht die Entwicklung und Anwendung des HBA-DT-Tools, einer hybriden Metaheuristik, die den Honey Badger Algorithmus (HBA) und Entscheidungstabellen-Techniken zur Optimierung von Black-Box-Softwaretests kombiniert. Das Tool zielt darauf ab, die Auswahl optimaler Testfälle zu automatisieren, eine umfassende Abdeckung aller Systemszenarien sicherzustellen und gleichzeitig die Anzahl der benötigten Testfälle zu verringern. Der Honig-Dachs-Algorithmus, inspiriert vom Futterverhalten der Honigdachse, verwendet Explorations- und Ausbeutungsschritte, um die effektivsten Testfälle zu identifizieren. Die Entscheidungstabellen-Technik analysiert systematisch Eingabebedingungen und Maßnahmen, um eine Reihe strukturierter Testfälle zu erstellen. Das Kapitel präsentiert eine detaillierte Fallstudie zur Dreiecksklassifizierung, die die Fähigkeit des Werkzeugs demonstriert, Testfälle von 64 auf nur 5 zu reduzieren und gleichzeitig die volle Abdeckung beizubehalten. Vergleichende Analysen mit herkömmlichen Ansätzen zur Entscheidungsfindung unterstreichen die signifikante Reduzierung von Testfällen und Ausführungszeiten und unterstreichen die Effizienz des Werkzeugs. Der automatisierte Ansatz des Werkzeugs HBA-DT erhöht nicht nur die Prüfeffizienz, sondern minimiert auch menschliches Versagen, was es besonders für Großsysteme mit mehreren Funktionen wertvoll macht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThis paper proposed a new optimization technique to black-box software testing by integrating Honey Badger Algorithm (HBA) with the decision table approach. The decision table considers the system requirements and automatically creates a collection of test cases out of system procedures. These cases are forwarded to the honey badger algorithm, which chooses the optimum possible cases according to the principles of exploration and exploitation in order to increase test coverage and decrease the total number of test cases while maintaining test efficiency. Black box testing is a effective strategy that tests software systems on the basis of input and output, with no knowledge of internal mechanisms. HBA, is algorithm inspired by the foraging strategies of honey badgers, can be used to increase the test process's efficiency and effectiveness. The proposed tool utilizes the features of both HBA and the decision table approach to automatically derive the most optimal test cases, ensuring testing full coverage with all possible input and output scenarios. This integration not only improves the overall quality of the testing process, but also addresses the challenge of achieving complete system testing coverage with fewer test cases. By combining and hybrid these techniques, the paper presents a novel solution that enhances both the speed and accuracy of black-box testing, making it an indispensable automated tool for testing complex and large-scale software systems. -
Application of Computer Adaptive Technology in Business English Intelligent Learning Platform Based on Artificial Intelligence
Bo XuDieses Kapitel befasst sich mit der Anwendung computeradaptiver Technologien in KI-basierten Business-Englisch-Lernplattformen, wobei der Schwerpunkt auf personalisierten Lernpfaden und verbesserten Ergebnissen liegt. Die Studie überprüft relevante Forschungsergebnisse zu Business English Learning und adaptiver Technologie und führt einen Gestaltungsrahmen für eine KI-basierte Plattform ein. Es untersucht verschiedene adaptive Lernalgorithmen, darunter Verstärkungslernen, Entscheidungsbäume, kollaboratives Filtern und graphenbasierte Empfehlungen. Die experimentellen Ergebnisse zeigen signifikante Verbesserungen in den Bereichen Wortschatz, Grammatik, Hörverständnis und Lesen für Lernende, die die adaptive Plattform im Vergleich zu herkömmlichen Methoden verwenden. Das Kapitel diskutiert auch die Herausforderungen und zukünftigen Richtungen zur Optimierung dieser Plattformen, wodurch es zu einem umfassenden Leitfaden zur Verbesserung der Englischausbildung in Unternehmen durch Technologie wird.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe role of sentiment analysis in personalized learning has received increasing attention, but many existing platforms have not yet been able to effectively combine sentiment analysis and adaptive learning. To this end, this study explores the application of computer adaptive technology in an AI-based business English intelligent learning platform, aiming to optimize the learning process through advanced algorithms and improve learning efficiency and personalized experience. The study collects learners’ behavioral data in real time and combines artificial intelligence algorithms to dynamically analyze and model learners’ needs, thereby achieving personalized learning path recommendations and real-time feedback. This study first uses support vector machines and cluster analysis to perform personalized modeling of learners and identify their learning progress and weak links. Secondly, this paper predicts learners’ behavior through collaborative filtering algorithm and automatically recommends suitable learning content experiments. The data results show that the business English intelligent learning platform based on computer adaptive technology significantly improves learners’ learning efficiency and participation. Through personalized recommendations and dynamic adjustment of learning content, learners can master more business English vocabulary, grammar and oral expression skills in a short period of time. -
RDC2N: Contrastive N-Pair Loss Enabled Deep Learning Framework to Determine COVID-19 via Computer Tomography Image Analysis
Shital A. Dhumane, Chandrakant GaikwadIn diesem Kapitel wird das RDC2N-Framework vorgestellt, ein Deep-Learning-Modell zur präzisen Erkennung von COVID-19 mithilfe von CT-Bildern. Das Modell verwendet kontrastive N-Paar-Verluste und fortschrittliche Optimierungstechniken, um die Erkennungseffizienz zu erhöhen. Zu den behandelten Schlüsselthemen gehören die Herausforderungen bei bestehenden COVID-19-Nachweismethoden, das Design des RDC2N-Modells und seine Wirksamkeitsvalidierung. Das Kapitel bietet auch eine vergleichende Bewertung des RDC2N-Modells mit anderen existierenden Modellen und zeigt seine überlegene Leistung. Experimentelle Ergebnisse zeigen die hohe Genauigkeit des Modells, wobei Metriken wie MCC, NPV und PPV andere Modelle deutlich übertreffen. Der Text schließt mit einer Diskussion über die Grenzen und potenziellen zukünftigen Verbesserungen des Modells.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractCorona Virus Disease-19 is a crucial respiratory human-to-human communicable disease. Computer Tomography scan images are utilized for accurate detection. Even though enormous conventional methodologies are developed to detect the coronavirus disease-19, they failed to mitigate certain discrepancies including data scarcity issues, overfitting problems with increased computational complexity, and inability to obtain optimal convergence. Hence, an effective Ratel-optimized distributed contrastive N-pair loss-enabled Convolutional Neural network model (RDC2N) is proposed. The incorporation of the preprocessed via Fast Kernel Region Sharpening (FKRS) and segmentation with Ratel Adaptive hunt and Acquisition optimized multi-granular (RA2MG) approach stipulated the quality of the image for effective detection. Further, the feature extraction using the Discrete Invariant Geometrical Transform (DIGT) descriptor enhanced the coronavirus detection efficiency. In addition, the active tuning of the model and segmentation parameters using the Ratel Adaptive Hunt and Acquisition (RA2H) optimization attains optimal convergence. Moreover, the experimental results carried out by the SARS-COV-2 CT-Scan dataset achieved Matthew’s Correlation Coefficient of 0.92, Negative Predicted Value of 0.96, and Positive Predicted Value of 0.97 for 90% training percentage. -
ANF-DRL: Adaptive Neuro Fuzzy and Deep Reinforcement Learning for Optimized Energy Efficiency in Wireless Sensor Networks
A. P. Jyothi, Shaista Tarannum, Shreyanka Subbarayappa, N. Bhavatarini, S. R. BhagyashreeDieses Kapitel untersucht die Anwendung von Adaptive Neuro Fuzzy (ANF) und Deep Reinforcement Learning (DRL) zur Optimierung der Energieeffizienz in Wireless Sensor Networks (WSNs). Er diskutiert die Herausforderungen traditioneller energieeffizienter Designs und führt ein hybrides ANF-DRL-Modell ein, das Cluster Heads (CHs) und Secondary Cluster Heads (SCHs) dynamisch auswählt, um die Lebensdauer des Netzwerks zu verlängern. Der Methodenabschnitt skizziert die Systemarchitektur, die Parameter für die Entscheidungsfindung und detaillierte Algorithmen für die CH- und SCH-Auswahl. Simulationsergebnisse zeigen die überlegene Energieeffizienz und Stabilität des Hybridansatzes im Vergleich zum reinen ANF-Modell. Die Schlussfolgerung unterstreicht das Potenzial der ANF-DRL-Hybridisierung bei der Beseitigung von WSN-Beschränkungen und der Verbesserung der Gesamtleistung.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn various applications, Wireless Sensor Networks (WSN) plays a crucial role. Energy being one of the main factors in the sensor nodes, many challenges are faced during the transmission of data. A hybrid method is used, introducing Adaptive Neuro Fuzzy Inference System (ANFIS) and Deep Reinforcement Learning (DRL) to optimize energy efficiency in WSNs. The existing work shows traditional methods used for static routing and power management schemes that may not adapt well to changes in environmental conditions. This paper aims to use ANFIS model to predict the Cluster Head (CH) and Secondary Cluster Head (SCH) based on the state of environment. Along with it, Deep Q-Network (DQN) component that is responsible to adapt to dynamic network conditions by making informed decisions to maximize data transmission efficiency. Results indicate that the hybrid model significantly reduces energy consumption while enhancing data relay capabilities. This work underscores the potential of integrating ANFIS with DRL for advancing energy management strategies in WSNs. -
Intelligent Fault Diagnosis of Digital Substations: Multimodal Data Fusion of IoT and Artificial Intelligence
Lulu Liu, Gaoqian Xue, Xuelati SimayiDieses Kapitel geht den Herausforderungen der Fehlerdiagnose in digitalen Unterstationen nach und schlägt eine multimodale Datenfusionstechnologie vor, die IoT und KI nutzt, um die Diagnosefähigkeiten zu verbessern. Durch die Integration von Sensordaten, Gerätestatus und Umgebungsparametern erreicht die Methode eine Datenübertragung in Echtzeit und eine zentrale Speicherung, wodurch die Fehleridentifikationsgenauigkeit und Reaktionszeit deutlich verbessert werden. Die Implementierung eines CNN-Modells zur Featureextraktion und Fusion multimodaler Daten ist detailliert, zusammen mit experimentellen Ergebnissen, die die Überlegenheit multimodalen Lernens gegenüber unimodalen Methoden hinsichtlich Genauigkeit, Reaktionszeit und Systemstabilität belegen. Das Kapitel diskutiert auch die Grenzen des gegenwärtigen Ansatzes und schlägt zukünftige Forschungsrichtungen zur weiteren Verbesserung des Fehlerdiagnosesystems vor.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe real-time and accuracy of power system fault diagnosis are facing challenges, especially in the case of multiple equipment failures and complex environments. This paper aims to improve the intelligent fault diagnosis capability of digital substations through multimodal data fusion technology of Internet of Things and artificial intelligence. First, multi-source data of the substation is collected, including sensor information, equipment operating status and environmental parameters. Secondly, the Internet of Things technology is used to realize real-time data transmission and upload the data to the cloud for centralized storage. Then, the CNN model is used for feature extraction, and data from different modes are fused to build a fault diagnosis model of multi-modal data fusion. Finally, the model is iteratively optimized through hybrid training and verification methods. The model achieves a fault identification accuracy of 96.7% and shortens the response time to less than 1.1 s. The multimodal data fusion method based on the Internet of Things and artificial intelligence significantly improves the fault diagnosis efficiency and accuracy of digital substations, providing strong support for the intelligent development of power systems. -
Combining Circular and Random Walk Mobility Models (CCRW) for FANET Enhancement
Alyaa Safaa, Suhad Faisal BehadiliDieses Kapitel untersucht die Verbesserung von Flying Ad-Hoc Networks (FANETs) durch die Integration von Circular and Random Walk Mobility Models (CCRW). Die Studie befasst sich mit den Herausforderungen der Aufrechterhaltung der Servicequalität (Quality of Service, QoS) in hochdynamischen UAV-Umgebungen und konzentriert sich dabei auf Schlüsselkennzahlen wie Packet Delivery Ratio (PDR), Durchsatz, End-to-End-Verzögerung und Paketverlust. Das vorgeschlagene CCRW-Modell kombiniert den stochastischen Charakter des Random-Walk-Modells mit den deterministischen Mustern des Kreislaufmodells, wodurch eine realistischere und anpassungsfähigere Mobilitätssimulation entsteht. Die Forschungsmethode umfasst umfangreiche Simulationen unter Verwendung von OMNeT + + / INET, bei denen die Leistung von AODV, DSDV und GPSR-Protokollen in drei Szenarien verglichen wird. Die Ergebnisse zeigen signifikante Verbesserungen bei PDR, Durchsatz und Paketverlust bei der Verwendung des CCRW-Modells, was seine Wirksamkeit bei der Optimierung der Netzwerkleistung für unternehmenskritische Drohnenanwendungen unterstreicht. Das Kapitel schließt mit einer Diskussion über die zukünftige Arbeit, in der vorgeschlagen wird, die räumliche KI zu integrieren, um die QoS in FANETs weiter zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractIn the modern era, the impact of Flying Ad-hoc Networks (FANETs) has demonstrated their significance across various domains, such as the military, healthcare, entertainment, etc. In these types of networks, realistic mobility modeling is essential for simulating Unmanned Aerial Vehicles (UAVs) in accurate behaviors and interactions within the network. To achieve this realism and improve network performance metrics of the network as well, Mobility Models (MMs) can be integrated, facilitating UAVs to present complex movement patterns that simulate real-world trajectories. This paper proposes a combination of Circular Mobility (CM) and Random Walk (RW) models (CCRW) in a superposition model to establish the final pattern of the proposed model and how it affects the Quality of Services (QoS). So, to achieve this purpose, OMNeT++ was used as a simulation tool. The QoS metrics used for analyzing the (CCRW) are End-to-End delay (E2E), Packet Delivery Ratio (PDR), throughput, and packet loss rate. The results of the simulation were presented and compared with respect to three scenarios. The first two scenarios implied the models separately, whereas the last scenario implied the proposed model (CCRW); each scenario was tested and evaluated with Ad-hoc On Demand Distance Vector (AODV), Greedy Perimeter Stateless Routing (GPSR), and Destination Sequenced Distance Vector (DSDV) routing protocols. The results demonstrate that the proposed model (CCRW) outperforms the CM and RW models in most QoS metrics. Accordingly, the simulation results exhibit the best PDR with Scenario 3 (CCRW) in AODV of 98.36%, throughput of 725,238, and packet loss of 1.63%, while Scenario 2 exhibits the best results in DSDV with E2E delay of 0.00914 s. This indicates that the CCRW model could enhance the most QoS metrics and movement realism, making it useful in FANET applications. -
Design and Development of Banana Disease Identification and Treatment Suggestion System
B. B. R. Y. Jayasekara, W. D. N. Wijerathna, H. M. K. R. Herath, P. M. A. U. Pallegama, N. H. P. Ravi Supunya Swarnakantha, Thilini JayalathDieses Kapitel untersucht die Konzeption und Entwicklung eines KI-gestützten Systems zur Erkennung und Bewältigung von Bananenkrankheiten, wobei der Schwerpunkt auf Panama-Krankheit und Yellow Sigatoka liegt. Das System nutzt Computervision, natürliche Sprachverarbeitung (NLP) und Echtzeit-Geolocation-Daten, um die Früherkennung und Prävention von Krankheiten zu verbessern. Zu den Schlüsselthemen zählen der Einsatz von Deep Learning und Transfer Learning zur präzisen Klassifizierung von Krankheiten, die Integration von Wetterdaten zur prädiktiven Analyse und die Entwicklung eines geologischen Kartierungs- und Warnsystems. Die Methodik des Systems umfasst die Vorverarbeitung von Bilddaten, den Einsatz verschiedener maschineller Lernmodelle und die Verwendung von NLP zur textbasierten Symptomidentifikation. Die Ergebnisse zeigen eine hohe Genauigkeit bei der Klassifizierung von Krankheiten, wobei das benutzerdefinierte CNN-Modell die beste Leistung zeigt. Das System zielt darauf ab, eine nachhaltige Landwirtschaft zu unterstützen, wirtschaftliche Verluste zu verringern und die Ernährungssicherheit durch rechtzeitige und genaue Krankheitsdiagnosen zu verbessern. Zukünftige Arbeiten umfassen die Erweiterung des Datensatzes, die Integration von IoT-Sensoren und die Verbesserung der mobilen App für einen breiteren Zugang.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractBanana is one of the most important crops in the world and a strategic food crop in many developing countries. However, the cultivation of bananas is accompanied by various diseases and pests, which are a major threat to yield, quality, and economic returns. Timely and correct identification of disease is very essential in order to take necessary measures to avoid or reduce losses. In this paper, an advanced AI-based system for identifying diseases in bananas and suggesting treatment options is presented, while state-of-the-art deep learning techniques are used. Moreover, the system applies region-based segmentation and optimal thresholding methods to help the farmers with the right planting and spraying recommendations for disease control without the spread to other parts. This research integrates machine learning, image processing, and agricultural knowledge in the development of the model, thereby contributing to the improvement of banana production as well as the advancement of agricultural technology through the application of AI in sustainable farming. -
Intelligent Consumer Behavior Prediction and Trend Analysis in Online Retail Using Machine Learning
Hager Basil Mohammed Salh, Huthaifa L. Mohamed Amin, Ameera Fares Hamed, Bella A. BulgarovaDieses Kapitel befasst sich mit der Anwendung maschineller Lernalgorithmen zur Vorhersage des Verbraucherverhaltens und der Produktprioritäten im Online-Handel. Die Studie nutzt den Online-Einzelhandel, der detaillierte Informationen über Produkte, Einkäufe und Kundendemografie enthält. Die Autoren verwenden das CRISP-DM-Rahmenwerk, um das Geschäftsproblem systematisch anzugehen, vom Verständnis der Daten bis hin zur Einführung des endgültigen Modells. Schlüsselthemen sind Datenvorverarbeitung und Feature Engineering, bei denen neue Attribute geschaffen werden, um das Produktverhalten besser darzustellen. Das Kapitel untersucht auch die Implementierung von drei überwachten maschinellen Lernalgorithmen: K-Nearest Neighbors (KNN), Support Vector Machine (SVM) und Linear Discriminant Analysis (LDA). Jedes Modell wird anhand von Metriken wie Genauigkeit, Präzision, Recall und F1-Score bewertet, wobei KNN die Spitzenposition einnimmt. Die Studie schließt mit einer Diskussion über mögliche Verbesserungen und zukünftige Richtungen, wie etwa den Einsatz von Methoden des Ensemblelernens und neuronaler Netzwerke. Die detaillierten Analysen und praktischen Erkenntnisse machen dieses Kapitel zu einer wertvollen Ressource für Fachleute, die ihr Verständnis der Vorhersagen des Verbraucherverhaltens im Online-Einzelhandel verbessern wollen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe increased growth of e-commerce has generated a vast amount of data that reflects customers’ behavior. This special data creates valuable information that provides an opportunity to reach intelligent retail analytics. This study presents a new Machine Learning (ML) based framework for analyzing customer behavior and predicting product priority in online retail. Utilizing a real-world dataset (Online Retail dataset), the study proposes rich preprocessing, feature engineering, and data transformation to construct new attributes related to products. A classification model is then created using the newly generated attributes to group products based on consumer behavior and purchase trends. Cross-Industry Standard Process for Data Mining (CRISP-DM) is the methodology used to accomplish this work. Three attractive supervised ML algorithms named K-Nearest Neighbors (KNN), Linear Discriminant Analysis (LDA), and Support Vector Machine (SVM) were used to train and assess the clean version of the dataset. Trained models were evaluated using accuracy, precision, recall, and f1-score metrics along with the ROC visualize metric. Moreover, the study provides additional analytic information like feature ranking, correlation analysis, and visual trend exploration to provide deep insight into the underlying customer behavior. Experimental results show that KNN gave the best performance of 98.36% outperforming other models. In addition, this study enhances the prediction of customer behavior, it also helps retailers to gain comprehension of dynamic shopping trends and eventually facilitates data-driven decision-making in online competition. -
Sentiment Analysis of Amazon Product Reviews and Its Impact on Sales Performance: A Data- Driven Approach
Ayush Kaushik, Nitesh Singh BhatiIn diesem Kapitel wird die Bedeutung der Sentiment-Analyse für das Verständnis des Kundenfeedbacks zu Amazon-Produktbewertungen und seiner anschließenden Auswirkungen auf die Umsatzentwicklung untersucht. Die Studie verfolgt einen datengestützten Ansatz, bei dem maschinelle Lernmodelle und Techniken zur Verarbeitung natürlicher Sprache (NLP) eingesetzt werden, um unstrukturierte Übersichtsdaten in strukturierte Erkenntnisse umzuwandeln. Zu den Schlüsselthemen zählen die Methodik der Stimmungsanalyse, die Bewertung verschiedener maschineller Lernmodelle und die Korrelation zwischen Stimmungsindikatoren und Umsatzentwicklung. Die Forschung hebt auch den Einsatz von Visualisierungen wie Wortwolken, Boxplots und Streudiagrammen hervor, um die Beziehung zwischen Sentiment Scores und Verkäufen zu illustrieren. Die Ergebnisse zeigen eine starke Verknüpfung zwischen positiver Stimmung und gesteigerten Umsätzen und liefern wertvolle Erkenntnisse für E-Commerce-Plattformen, um ihre Entscheidungsprozesse zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe business outcomes in this era is significantly influenced by customer reviews, feedbacks and their behavior. The objective of current research is to evaluate the relationship between product sales and online sentiment using sentiment analysis along with machine learning techniques. The research performs NLP to classify and analyze trends in consumer feedback for amazon. The sentiment scores are evaluated using TextBlob. The sentiment distribution plots are used to visualize sentiment scores. The predictive power of review is evaluated using logistic regression along with other regression models. The product performance is found to be correlated with F-1 scores and high accuracy is attained for different regression models. The research findings have shown that with the monitoring of review sentiment the business can get significant competitive advantage and this facilitates to list products accordingly. The results emphasize the usage of sentiment analysis in developing of e- commerce businesses. -
A Comparative Analysis of Machine Learning and Deep Learning Techniques for Diabetic Retinopathy Detection
Harmandeep Kaur, Kavita, Vikas Attri, Sahil VermaDieses Kapitel geht der entscheidenden Rolle des maschinellen Lernens und des tiefen Lernens bei der Früherkennung und Klassifizierung der diabetischen Retinopathie, einer führenden Ursache für Blindheit, nach. Es untersucht verschiedene Techniken, darunter traditionelle Methoden des maschinellen Lernens wie logistische Regression und unterstützende Vektormaschinen, sowie fortgeschrittene Ansätze des tiefen Lernens wie konvolutionale neuronale Netzwerke (CNNs) und generative adversariale Netzwerke (GANs). Das Kapitel beleuchtet die Verwendung öffentlich zugänglicher Datensätze wie Messidor, EyePACS und DIARETDB1 zur Schulung und Bewertung dieser Modelle. Außerdem wird die Bedeutung von Featureextraktion, Datenvergrößerung und Ensemblelernen für die Verbesserung der Genauigkeit und Robustheit dieser Modelle diskutiert. Die Ergebnisse zeigen signifikante Leistungsschwankungen in Abhängigkeit von der verwendeten Modellarchitektur und dem verwendeten Datensatz, wobei einige Modelle eine hohe Genauigkeit und AUC-Werte erreichen. Das Kapitel schließt mit der Betonung der Notwendigkeit weiterer Forschung, um Herausforderungen wie Klassenungleichgewichte, Variabilität der Bildqualität und die Interpretierbarkeit von KI-Modellen im klinischen Umfeld anzugehen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractProlonged hyperglycemia and blood glucose fluctuations are the main causes of diabetic retinopathy (DR), one of the primary causes of visual impairment worldwide. For working-age people, prompt intervention is essential to maintaining vision. This study is driven by the urgent need for precise and early DR identification in order to enable efficient treatment and avoid permanent vision loss. Based mostly on retinal fundus photos, we present a thorough analysis of a number of diagnostic indicators, such as blood vessel anomalies, microaneurysms, exudates, macula, optic discs, and hemorrhages. Our contribution consists on assessing several AI approaches, including deep learning and machine learning, for early DR classification and detection. This study specifically demonstrates that a hybrid model that combines a Support Vector Machine (SVM) classifier with ResNet50 for feature extraction yields improved accuracy in detecting diabetic retinopathy. -
Anomalies and Cyberattacks Detection Model in Resource Constrained IoT Networks
Harit Mohanta, Japneet Singh Bhatia, Joshua Dasgupta, K. Shekar, Ali Mohammed Kadhim, Shatha kamil FatoohiDieses Kapitel geht der Komplexität der Erkennung von Anomalien und Cyberangriffen in IoT-Netzwerken nach, die durch begrenzte Ressourcen eingeschränkt sind. Das vorgeschlagene Modell nutzt die Unterstützung von Vektormaschinen (SVMs), um Flugbahnen auf Grundlage extrahierter statistischer Merkmale als normal oder anomal einzustufen. Der Prozess umfasst Feature-Extraktion, SVM-Training, Anomalieerkennung und Berichterstattung, wobei der Schwerpunkt auf der Erzielung hoher Genauigkeit und Robustheit liegt. Aufgrund seiner Vielseitigkeit ist das Modell auf verschiedene Bereiche anwendbar, darunter Überwachung, Transport und Robotik. Darüber hinaus werden in diesem Kapitel verschiedene Modelle des maschinellen Lernens verglichen und die Stärken des SVM in Bezug auf Genauigkeit, Effizienz und Formel-1-Punktzahl hervorgehoben. Die Schlussfolgerung betont den praktischen Ansatz des Modells und die Notwendigkeit einer sorgfältigen Feature Engineering und bietet ein solides Rahmenwerk für die Erkennung von Anomalien in IoT-Umgebungen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractNetwork security in Internet of Things (IoT) environments poses challenges due to the heterogeneous nature of devices, resource constraints, and the scale of data generation. This paper proposes a novel Support Vector Machine (SVM) based approach for detecting anomalies and security threats in IoT networks. The method we propose implements a two-stage detection framework that uses features which are optimized for IoT traffic patterns with an adaptive SVM classifier. The model was evaluated and trained on a dataset which consists of 1.2 million network flows collected from 2,500 IoT devices across industries and smart home environments. Our approach achieves detection accuracy of 97.3% with a false positive rate of 0.8%, which outperforms traditional anomaly detection methods by an average of 12%. Our proposed method performs reasonably well in identifying unknown cyberattacks attacks while maintaining computational efficiency which suits resource-constrained IoT environments. Our implementation also reduces the feature extraction overhead by 45% in real time IoT devices. Our findings show that anomaly detection based on SVM can be effectively adapted for IoT security while addressing the unique constraints of the field. -
Diabetes Prediction Using Machine Learning
Ranvir Kaur, Kavita, Sahil VermaDieses Kapitel befasst sich mit der Anwendung maschineller Lernalgorithmen zur Vorhersage von Diabetes, einer weltweit weit verbreiteten und gefährlichen Krankheit. Es erforscht verschiedene ML-Techniken wie künstliche neuronale Netzwerke, unterstützende Vektormaschinen, Bayessche Netzwerke und vieles mehr, wobei ihre Rolle bei der Diabetesvorhersage hervorgehoben wird. Der Text überprüft auch aktuelle Studien, die diese Techniken eingesetzt haben, und zeigt ihre Wirksamkeit und Genauigkeit auf. Darüber hinaus werden die Herausforderungen bei der Diabetesvorhersage wie Datenrepräsentation und Verallgemeinerbarkeit von Modellen diskutiert und zukünftige Richtungen wie tragbare Geräte und Deep Learning vorgeschlagen. Das Kapitel schließt mit einer umfassenden Methodik und Ergebnissen, die einen detaillierten Überblick darüber geben, wie maschinelles Lernen zur Verbesserung der Diabetesversorgung und -prävention eingesetzt werden kann.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractHigh blood glucose levels that don’t go down owing to proper glucose use are diabetes. Diabetes can cause diabetic ketoacidosis, non-ketotic hyperosmolar co-ma, cardiovascular disease, stroke, chronic kidney failure, blindness, and foot ulcers. Diabetes is a global health issue due to its rapid rise. Early identification reduces complications and improves diabetes treatment. Data mining and ML techniques (ANN, SVM, Naive Bayes, PLS-DA, and deep learning) find interesting illness diagnosis and treatment trends. Current diabetes diagnostic computational approaches are limited in their practicality, and prediction algorithms have not been tested on various datasets or international individuals.Most diabetes prediction literature using data mining and machine learning, as well as related issues, has been assembled. -
Optimizing CPU Resource Utilization in Cloud Computing Using ML and DL Techniques
Sajjad A. Ajeel, Sundos A. Hameed AlazawiDieses Kapitel befasst sich mit der Optimierung der CPU-Ressourcennutzung in Cloud-Computing-Umgebungen mittels maschinellem Lernen und Deep-Learning-Techniken. Es beginnt mit der Betonung der Bedeutung eines effizienten Ressourcenmanagements im Cloud Computing, das von entscheidender Bedeutung ist, um eine hohe Leistung zu erreichen und Kosten zu senken und gleichzeitig die Anforderungen der Service Level Agreement zu erfüllen. Die Forschung konzentriert sich auf den Vergleich der Effektivität von vier maschinellen Lernmodellen: Random Forest, Recurrent Neural Networks (RNN), Long Short-Term Memory (LSTM) Netze und Convolutional Neural Networks (CNNs). Die Studie nutzt den Datensatz des Google 2019 Cluster, der eine umfassende Aufzeichnung der Arbeitsbelastung von Google Borg-Rechenclustern enthält. Datenvorverarbeitungstechniken wie OneHotEncoding, StandardScaler und SimpleImputer werden eingesetzt, um die Daten zu reinigen und zu normalisieren und so eine qualitativ hochwertige Eingabe für die Modelle zu gewährleisten. Im Kapitel werden die Stärken und Grenzen jedes Modells diskutiert, wobei Random Forest sich in der strukturierten Datenanalyse hervortut, RNNs und LSTMs beim Umgang mit sequenziellen Daten besser abschneiden und CNNs einen einzigartigen Ansatz zur Extraktion bieten. Die Bewertungskennzahlen umfassen Genauigkeit, Präzision, Recall und F1-Score, wobei CNN die höchste Genauigkeit von 98% erreicht. Die Forschung kommt zu dem Schluss, dass die Wahl des maschinellen Lernmodells mit der Art der Daten und den spezifischen Anforderungen der Aufgabe in Einklang stehen sollte. Es betont das Potenzial maschineller Lernmodelle zur Verbesserung der CPU-Leistung in Cloud-Computing-Systemen und bietet wertvolle Erkenntnisse für Forscher und Cloud Service Provider, die darauf abzielen, die Ressourcenallokation zu optimieren und die Systemeffizienz zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe modern IT (Information Technology) infrastructure uses cloud computing as its cornerstone to provide quick and simple access to physical and virtual resources like CPU (Central Processing Unit), memory, and storage capabilities. The issue with power efficiency in cloud CPUs remains difficult to solve because cloud workloads maintain constant configuration changes. Standard resource allocation strategies create multiple performance issues by allocating excessive or insufficient resources that raise costs and reduce system quality. Real-time adaptive CPU utilization becomes achievable through machine learning (ML) technology, which provides an effective solution against these current difficulties. The CPU becomes more efficient because of machine learning. The CPU learns improved and faster task execution through training that analyzes data from mistakes to enhance its performance for specific responsibilities. The CPU shows adaptability for continuous changes while making immediate better decisions thus offering an effective base to solve these problems. This research investigates how machine learning (ML) can help the CPU use resources adaptively in real time. Using analyzing operational data, like core use, how many times the system starts, and its temperature, random forests, recurrent neural networks (RNN), long short-term memory (LSTM) and convolutional neural networks (CNN) can assist in training ML models that enhance prediction performance and optimize CPU activities. Analysis in this paper investigates multiple approaches for improving CPU efficiency in cloud computing networks, research constraints, and forthcoming opportunities resulting in heightened CPU resource functionality and reduced energy utilization. -
Construction of a Digital Twin-Driven Virtual Assembly System for Intelligent Automotive Manufacturing
Min YuDieses Kapitel befasst sich mit der Konstruktion eines digitalen virtuellen Montagesystems mit zwei Antrieben, das die intelligente Automobilfertigung revolutionieren soll. Die Architektur des Systems ist in vier Ebenen unterteilt: Wahrnehmung, Datentransport, virtuelles Modell und Anwendung, die jeweils eine entscheidende Rolle im Montageprozess spielen. Die Wahrnehmungsschicht sammelt Echtzeitdaten von in der Montagewerkstatt eingesetzten Sensoren, während die Datenübertragungsschicht eine sichere und effiziente Datenübertragung gewährleistet. Die virtuelle Modellschicht bildet einen digitalen Zwilling des Automobilprodukts und simuliert und optimiert den Montageprozess. Die Anwendungsschicht bietet Echtzeit-Überwachung und Prozessoptimierung, was die Montageeffizienz und -qualität steigert. Der SVM-Algorithmus wird eingesetzt, um virtuelle Montagedaten zu analysieren und Engpässe und redundante Verknüpfungen im Montageprozess zu identifizieren. Vergleichsexperimente belegen die Überlegenheit des Systems gegenüber herkömmlichen Montagemethoden, mit einer höheren qualifizierten Rate an Montageprodukten und erheblichen Zeitersparnissen. Das Kapitel untersucht auch die potenziellen Anwendungen und zukünftigen Forschungsrichtungen des Systems und hebt seine Rolle bei der Förderung der digitalen Transformation der Automobilhersteller hervor.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
AbstractThe traditional automobile assembly process has problems such as low efficiency, poor assembly quality, and difficulty in real-time monitoring and adjustment. To overcome these challenges, this study constructs a digital twin-driven virtual assembly system for intelligent automobile manufacturing. In the system perception layer, physical entity data such as equipment operating status, component location, and assembly force are collected. The data transmission layer transfers the data collected by the perception layer to the virtual model layer securely and quickly. The virtual model layer uses Blender to digitize the automobile design drawings and build a preliminary three-dimensional model of the automobile product based on the process specifications. Then, Gazebo is used to assign physical properties to the 3D model and simulate the assembly process to form a digital twin model that contains geometric shapes, physical properties, and assembly process information. At the application layer, the system provides functions such as assembly process monitoring, process optimization, and quality prediction. Through interaction with the virtual model layer, real-time visual monitoring of the assembly process is achieved. When the actual assembly data is fed back to the virtual model, the assembly process is dynamically adjusted and optimized. Among all 15 assembly tasks, the average assembly time of the virtual assembly system is lower than that of the traditional assembly method, and the average qualified rate of assembled products has increased by about 7.75%. These data show that the virtual assembly system can improve the level of intelligent automobile manufacturing, achieve high efficiency, precision and coordination in the assembly process, and provide a new solution for intelligent automobile manufacturing.
- Titel
- Proceedings of Fifth International Conference on Computing and Communication Networks
- Herausgegeben von
-
Gia-Nhu Nguyen
Abhishek Swaroop
Pancham Shukla
- Copyright-Jahr
- 2026
- Verlag
- Springer Nature Switzerland
- Electronic ISBN
- 978-3-032-14189-7
- Print ISBN
- 978-3-032-14188-0
- DOI
- https://doi.org/10.1007/978-3-032-14189-7
Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.