Zum Inhalt

Computer Vision and Robotics

Proceedings of CVR 2025, Volume 2

  • 2026
  • Buch

Über dieses Buch

Dieses Buch besteht aus einer Sammlung von qualitativ hochwertigen Forschungsartikeln im Bereich Computer Vision und Robotik, die auf der Internationalen Konferenz für Computer Vision und Robotik (CVR 2025) präsentiert werden, die vom National Institute of Technology, Goa, Indien, vom 25. bis 26. April 2025 organisiert wird. Das Buch diskutiert Anwendungen von Computervision und Robotik in Bereichen wie Medizin, Verteidigung und intelligenter Stadtplanung. Das Buch stellt aktuelle Arbeiten von Forschern, Wissenschaftlern, der Industrie und politischen Entscheidungsträgern vor.

Inhaltsverzeichnis

  • 1
  • 2
  • current Page 3
Vorherige
  1. FocusNet: A Pathogenetically Oriented Deep Learning Framework for Enhanced Diagnostics and Treatment of Fundus Pathologies

    R. Bhuvanya, A. Saravanan, V. Vanitha, K. P. Koushik, S. Heblin Bersilla, R. Bharani Rajan
    Dieses Kapitel stellt FocusNet vor, ein pathogenetisch orientiertes Deep-Learning-Rahmenwerk zur Verbesserung der Diagnose und Behandlung von Netzhauterkrankungen. Die Studie untersucht die Integration von DenseNet169 mit pixelweisen Aufmerksamkeitsmechanismen, die die Präzision der Klassifizierung von Erkrankungen wie diabetischer Retinopathie, Glaukom und Grauer Star signifikant verbessern. Die Studie evaluiert verschiedene Deep-Learning-Modelle, einschließlich der Varianten ResNet und MobileNet, und zeigt, dass FocusNet die höchste Klassifizierungsgenauigkeit erreicht. Die Studie diskutiert auch die Bedeutung von Aufmerksamkeitsmechanismen in der medizinischen Bildgebung und hebt deren Fähigkeit hervor, sich auf relevante Regionen innerhalb von Netzhautbildern zu konzentrieren. Zusätzlich bietet das Kapitel einen detaillierten Vergleich von Leistungskennzahlen wie Genauigkeit, Präzision, Recall und F1-Score zwischen verschiedenen Modellen. Die Ergebnisse deuten darauf hin, dass FocusNet einen vielversprechenden Ansatz zur Verbesserung der Früherkennung und Behandlung von Netzhauterkrankungen bietet, von dem letztlich die Patienten profitieren.
  2. Optimizing Tomato Disease Classification Using Deep Learning Ensemble Approach with Color Opponency Space

    Gurpreet Singh, Sandeep Sharma
    Dieses Kapitel untersucht die Optimierung der Klassifizierung von Tomatenerkrankungen mithilfe eines tief lernenden Ensembleansatzes kombiniert mit dem Color Opponency Space (COS). Die Studie konzentriert sich auf die Herausforderungen durch Tomatenkrankheiten, die Notwendigkeit automatisierter Klassifizierungstechniken und die Integration von COS zur verbesserten Extraktion von Merkmalen. Die Forschung nutzt den Datensatz Plant Village, der Bilder verschiedener Tomatenkrankheiten enthält, und verwendet Inception v3, DenseNet121 und ResNet50-Modelle mit und ohne COS-Vorverarbeitung. Die Lernstrategien des Ensembles, einschließlich weicher Stimmabgabe und gewichteter Stimmabgabe, werden eingesetzt, um die Klassifizierungsleistung zu verbessern. Die vorgeschlagene Methode erreicht eine herausragende Genauigkeit von 97,74% und übertrifft damit bestehende Ansätze. Das Kapitel diskutiert auch die Grenzen der vorgeschlagenen Methode und schlägt zukünftige Forschungsrichtungen vor, wie die Einbeziehung von Aufmerksamkeitsmechanismen oder transformatorbasierten Modellen zur weiteren Verbesserung. Die Ergebnisse unterstreichen das Potenzial des tiefen Lernens und des gemeinsamen Lernens in der Präzisionslandwirtschaft für die Erkennung von Krankheiten in Echtzeit und nachhaltiges Pflanzenmanagement.
  3. CNN-Autoencoder with Linear Regression-Based Image Analyzer for Detection of Defects in SQ59 Armatures

    Suraj Sunil Joshi, Devarshi Anil Mahajan, Atharva Deshmukh, Mukta Dinesh Deore, Pooja Mishra, Piyush Jadhav
    Dieses Kapitel untersucht eine innovative Methode zur Erkennung von Defekten in SQ59-Armaturen, mit besonderem Schwerpunkt auf Delldefekten in Kommutatorplatten. Die Autoren stellen einen neuartigen Ansatz vor, der CNN-basierte Featureextraktion mit Autoencodern kombiniert und die Herausforderungen durch Bewegungsunschärfe und Beleuchtungsunregelmäßigkeiten in Produktionsumgebungen angeht. Die Studie vertieft sich in die Architektur der vorgeschlagenen Methode und beschreibt die Merkmalsextraktionsschicht, die Autoencoderschicht und die Bildanalyseschicht. Darin wird die Verwendung linearer Regression für die Klassifizierung hervorgehoben und die erreichten Leistungskennzahlen diskutiert, einschließlich einer Formel-1-Messgröße von 80,01%. Das Kapitel bietet auch eine umfassende Analyse der Leistung des Autoencoders und vergleicht sie mit anderen Methoden, wodurch wertvolle Erkenntnisse für Fachleute auf diesem Gebiet gewonnen werden können. Die Ergebnisse zeigen die Effektivität der vorgeschlagenen Methode bei der Erkennung von Mängeln, was sie zu einem bedeutenden Beitrag im Bereich der Qualitätskontrolle in der Fertigung macht.
  4. Project Management with Tamper-Proof Evaluation System Using Blockchain and Secured Storage

    S. Sudharsana Saravanan, C. Swetha, S. Shravanthi, S. R. Sarvanthikha, U. Gayathri, N. Harini
    Dieses Kapitel geht auf die entscheidende Notwendigkeit transparenter und fairer Bewertungssysteme für die Mitarbeiterleistung ein und hebt die nachteiligen Auswirkungen traditioneller Bewertungsmethoden auf das Wohlbefinden am Arbeitsplatz hervor. Es führt eine Blockchain-basierte Lösung ein, die IPFS für eine sichere und unveränderliche Datenspeicherung nutzt und so die Integrität und Authentizität von Bewertungsprotokollen gewährleistet. Der Text untersucht die Integration automatisierter Bewertungstools wie MOSS und Diffchecker, die die Genauigkeit und Effizienz von Leistungsbewertungen verbessern. Darüber hinaus werden die Auswirkungen solcher Systeme auf die Zufriedenheit der Mitarbeiter, die Produktivität und die Unternehmenskultur diskutiert. Das Kapitel schließt mit einem Vergleich traditioneller Bewertungsmethoden mit dem vorgeschlagenen Blockchain-basierten System, der deutliche Verbesserungen bei Transparenz, Sicherheit und Skalierbarkeit aufzeigt. Durch die Umsetzung dieser Lösung können Organisationen ein gerechteres und unterstützenderes Arbeitsumfeld fördern und letztlich sowohl den individuellen als auch den organisatorischen Erfolg vorantreiben.
  5. Edge-Optimized Hybrid Framework for Image Super-Resolution Using Deep Learning and Fuzzy Logic

    Ananya Vemula, Amit Kumar Bairwa
    Dieses Kapitel untersucht die Integration von Fuzzy Logic und Deep Learning, um ein neuartiges hybrides Rahmenwerk für Bild-Höchstauflösung zu schaffen. Der Text vertieft sich in die Methodik hinter verschwommener Logik und tiefem Lernen und hebt ihre individuellen Stärken und Grenzen hervor. Er präsentiert einen detaillierten Vergleich verschiedener Höchstauflösungstechniken, darunter SRCNN, ESRGAN und andere, und betont die Vorteile des vorgeschlagenen Hybridansatzes. Der Abschnitt zur Implementierung beschreibt, wie Fuzzy Logic die Kantenerhaltung, Robustheit gegenüber Rauschen und Anpassungsfähigkeit bei Aufgaben mit höchster Auflösung verbessert. Die Ergebnisse zeigen die Effektivität des hybriden Rahmenwerks und erzielen eine überlegene Wahrnehmungsqualität und quantitative Kennzahlen. Die Schlussfolgerung skizziert die möglichen Anwendungsmöglichkeiten dieses Rahmenwerks in den Bereichen medizinische Bildgebung, Fernerkundung und Überwachung, spricht aber auch die Nachteile an und schlägt Richtungen für zukünftige Forschung vor.
  6. Backmatter

  • 1
  • 2
  • current Page 3
Vorherige
Titel
Computer Vision and Robotics
Herausgegeben von
Harish Sharma
Abhishek Bhatt
Chirag Modi
Andries Engelbrecht
Copyright-Jahr
2026
Electronic ISBN
978-3-032-06253-6
Print ISBN
978-3-032-06252-9
DOI
https://doi.org/10.1007/978-3-032-06253-6

Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.

    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, NTT Data/© NTT Data, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Deutsche Telekom MMS GmbH/© Vendosoft, Fortinet GmbH/© Fortinet GmbH, ams.solutions GmbH/© ams.solutions GmbH, Ferrari electronic AG/© Ferrari electronic AG, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Haufe Group SE/© Haufe Group SE, Doxee AT GmbH/© Doxee AT GmbH , ADLON Intelligent Solutions GmbH/© ADLON Intelligent Solutions GmbH, Bild 1 Doxa Consulting (Sage-Advertorial 4/2026)/© Sage, Videocast 1: Standbild/© Springer Fachmedien Wiesbaden, KI-Wissen für mittelständische Unternehmen/© Dell_Getty 1999938268, IT-Director und IT-Mittelstand: Ihre Webinar-Matineen /© da-kuk / Getty Images / iStock