Zum Inhalt

Bildverarbeitung für die Medizin 2026

Proceedings, German Conference on Medical Image Computing, Lübeck March 15 - 17, 2026

  • 2026
  • Buch

Über dieses Buch

Die Konferenz "BVM – Bildverarbeitung für die Medizin" ist seit vielen Jahren als die nationale Plattform für den Austausch von Ideen und die Diskussion der neuesten Forschungsergebnisse im Bereich der Medizinischen Bildverarbeitung und der Künstlichen Intelligenz (KI) etabliert. Auch 2026 haben (junge) Wissenschaftler*innen, Industrie und Anwender*innen diesen Austausch vertieft. Die Beiträge dieses Bandes – die meisten davon in englischer Sprache – umfassen alle Bereiche der medizinischen Bildverarbeitung, insbesondere die Bildgebung und -akquisition, Segmentierung und Analyse, Registrierung, Visualisierung und Animation, computerunterstützte Diagnose sowie bildgestützte Therapieplanung und Therapie. Hierbei kommen Methoden des maschinellen Lernens, der biomechanischen Modellierung sowie der Validierung und Qualitätssicherung zum Einsatz.

Die Kapitel "Label, Refine, Repeat: Extending nnInteractive with Dataset Traversal and nnU-Net Proposals", "AI-based Automated Framework for Quantitative PET/CT Image Analysis", "Anatomy-informed 3D Reconstruction of Tracked Ultrasound Sweeps: A Proof of Concept" sind unter einer Creative Commons Attribution 4.0 International License über link.springer.com frei verfügbar (Open Access).

Inhaltsverzeichnis

Nächste
  • current Page 1
  • 2
  • 3
  • 4
  • 5
  1. Frontmatter

  2. Interpretable Mediastinal Lymph Node Station Classification and N-staging on CT and PET/CT Images

    Sofija Engelson, Jan Ehrhardt, Yannic Elser, Malte M. Sieren, Julia Andresen, Stefanie Schierholz, Tobias Keck, Daniel Drömann, Jörg Barkhausen, Heinz Handels
    In diesem Fachbeitrag wird ein innovativer Ansatz zur automatisierten Klassifizierung von Lymphknotenstationen (LNS) und N-Staging auf CT- und PET/CT-Bildern vorgestellt. Die Methode erweitert zwei etablierte Segmentierungsalgorithmen durch probabilistisches Atlas-basiertes LNS-Mapping, was die Erkennungsgenauigkeit um über 40 Prozentpunkte verbessert. Die vorgeschlagene Methode erreicht eine Genauigkeit von 0,74 für die LNS-Klassifizierung und 0,68 für das N-Staging auf PET/CT, was eine signifikante Verbesserung gegenüber der Baseline-Methode darstellt. Die Studie zeigt, dass die PET-Scan-Informationen wertvolle Zusatzinformationen für die Lymphknotenbewertung liefern, was mit der Literatur übereinstimmt. Der Beitrag diskutiert auch die Herausforderungen und Grenzen der Methode, insbesondere bei der Bewertung von CT-Bildern ohne PET-Scan. Die vorgeschlagene Pipeline bietet eine interpretierbare und vollständig automatisierte Lösung für das N-Staging, die als Entscheidungshilfe für Radiologen dienen kann. Die Ergebnisse zeigen, dass die Methode das Potenzial hat, die Genauigkeit und Effizienz der Lymphknotenbewertung in der klinischen Praxis zu verbessern.
  3. Breast MRI Evaluation with Weakly-informed Slice-level Explanation

    BE-WISE Adarsh Bhandary Panambur, Tri-Thien Nguyen, Siming Bayer, Andreas Maier
    In diesem Fachbeitrag wird die Methode BE-WISE vorgestellt, die eine transformer-basierte Architektur nutzt, um Brust-MRI-Bilder zu klassifizieren und Läsionen zu lokalisieren. Die Methode lernt aus minimaler Radiologen-Eingabe und kombiniert Brustebenen-Diagnose mit Schichtebenen-Läsionslokalisierung. Dies ermöglicht eine präzisere und interpretierbare Diagnose, was besonders für die Erkennung von Brustkrebs von Bedeutung ist. Die Studie zeigt, dass BE-WISE im Vergleich zu bestehenden Methoden eine höhere diagnostische Leistung erzielt, insbesondere durch die Integration von dynamischen Kontrastverstärkungs-MRI-Sequenzen und die Nutzung von schwacher Überwachung. Die Ergebnisse deuten darauf hin, dass BE-WISE eine vielversprechende Methode für die Verbesserung der Brustkrebsdiagnostik ist und potenziell in der klinischen Praxis eingesetzt werden könnte. Zudem wird die Möglichkeit der human-in-the-loop-Refinements diskutiert, die eine kontinuierliche Verbesserung der Diagnosegenauigkeit ermöglicht.
  4. Abstract: Investigation of Class Separability within Object Detection Models in Histopathology

    Jonas Ammeling, Jonathan Ganz, Frauke Wilm, Katharina Breininger, Marc Aubreville
    In diesem Fachbeitrag wird die Klassentrennbarkeit in Objekt-Erkennungsmodellen für die Histopathologie untersucht. Die Studie konzentriert sich auf die Analyse der Unterscheidungsfähigkeit in verschiedenen Schichten von Modellen, insbesondere in den Backbone-, Feature-Pyramid-Netzwerk- und Detektionskopfschichten. Zwei neue Metriken, der angepasste generalisierte Diskriminierungswert (aGDV) und der Hellinger-Distanz-basierte Diskriminierungswert (HDV), werden eingeführt, um die Trennung von Klassen in latenten Räumen zu bewerten. Die Studie zeigt, dass die Klassentrennbarkeit in frühen Backbone-Schichten bescheiden ist, durch tiefere Backbone- und FPN-Schichten zunimmt und in Detektionsköpfen ihren Höhepunkt erreicht. Die layerweisen HDV-Metriken unterscheiden zudem Domänen mit guter Generalisierung von solchen mit schwerer Domänenverschiebung und reflektieren klassenspezifische Verwirrung in Mehrklassen-Einstellungen. Die Ergebnisse bieten praktische Hinweise für Architektur- und Trainingsentscheidungen, indem sie aufzeigen, wo Diskriminierung gewonnen oder verloren geht, und den Einfluss von Multi-Domänen-Training, Farbverstärkung oder selbstüberwachtem Lernen untersuchen. Die Studie liefert wertvolle Einblicke in die Modellleistung unter Domänenverschiebungen und zeigt, wie sich die Unterscheidungsfähigkeit in verschiedenen Schichten entwickelt.
  5. Self-supervised Dual-domain Swin Transformer for Sparse-view CT Reconstruction

    DuDoSwin Bipin Yadav, Adarsh Raghunath, Franziska Weber, Andreas Maier
    In diesem Fachbeitrag wird die Methode DuDoSwin vorgestellt, die auf selbstüberwachten Dual-Domain-Swin-Transformern basiert und speziell für die CT-Rekonstruktion mit wenigen Ansichten entwickelt wurde. Die Methode kombiniert Sinogramm-Winkel-Superauflösung und Bildbereichsverfeinerung, um die Bildqualität zu verbessern. Ein differenzierbarer FBP-Brückenoperator ermöglicht die End-to-End-Optimierung. Die Evaluierung auf der AAPM Low-Dose CT-Datensammlung zeigt, dass DuDoSwin im Vergleich zu bestehenden lernbasierten und interpolationsbasierten Methoden eine überlegene Rekonstruktionsqualität und perzeptuelle Treue erreicht. Die Methode ist besonders effektiv bei schwerer Winkel-Unterabtastung und verbessert quantitative Metriken wie PSNR, SSIM und LPIPS. Die Implementierung ist öffentlich verfügbar und bietet eine praktische Lösung für die Verbesserung der CT-Bildqualität bei reduzierter Strahlendosis.
  6. How Predictable is the Human Body?

    Predicting Organ Bounding Boxes With a Statistical Atlas Based on Four Keypoints Temke Kohlbrandt, Kai Geissler, Stefan Heldmann
    In dieser Studie wird die Vorhersage von Organpositionen mithilfe eines statistischen Atlas basierend auf vier Schlüsselpunkten untersucht. Die Autoren vergleichen diese Methode mit einem linearen Regressionsmodell und evaluieren die Genauigkeit der Vorhersagen anhand von 10.828 Ganzkörper-MRT-Volumina. Die Ergebnisse zeigen, dass die statistische Atlas-Methode vergleichbare Ergebnisse liefert, jedoch flexibler an verschiedene analytische Szenarien anpassbar ist. Besonders hervorzuheben ist die Fähigkeit, die Größe der vorhergesagten Bounding Boxes zu kontrollieren, was die Strahlenbelastung bei CT-Untersuchungen reduzieren kann. Die Studie hebt auch die Herausforderungen bei der Vorhersage kleinerer und variabler Strukturen hervor und schlägt zukünftige Forschungsrichtungen vor, um die Robustheit und Allgemeingültigkeit des Modells zu verbessern.
  7. Abstract: PrIINeR

    Towards Prior-informed Implicit Neural Representations for Accelerated MRI Ziad Al-Haj Hemidi, Eytan Kats, Mattias P. Heinrich
    In diesem Fachbeitrag wird die Methode PrIINeR vorgestellt, die Deep Learning und Implicit Neural Representations (INRs) kombiniert, um die Qualität von beschleunigten MRI-Scans zu verbessern. Die Autoren zeigen, dass herkömmliche Methoden wie Parallel Imaging und Compressed Sensing bei hoher Beschleunigung die Bildqualität beeinträchtigen, während Deep Learning-Methoden oft zu Glättung oder Halluzination von Merkmalen führen. PrIINeR integriert Population-Priors mit instanzspezifischer Optimierung, um diese Probleme zu lösen. Die Methode verwendet ein hash-grid-kodiertes implizites Netzwerk, das gemeinsam mit Coil-Sensitivitätskarten optimiert wird und durch ein duales Datenkonsistenzziel geleitet wird. Dies ermöglicht eine bessere Übereinstimmung mit den undersampled k-space-Daten und den prior-informierten Rekonstruktionen. Durch die Anwendung von Totalvariationsregularisierung werden Aliasing-Artefakte weiter reduziert, während scharfe Kanten erhalten bleiben. Die Ergebnisse zeigen, dass PrIINeR die Rekonstruktionsqualität signifikant verbessert, gemessen an SSIM und PSNR, und qualitativ bessere Artefaktunterdrückung und Erhaltung anatomischer Details bietet. Die Methode ist robust und flexibel und bietet eine vielversprechende Lösung für beschleunigte MRI.
  8. Interpretable Framework for Zero-shot 4D Low-dose CT Denoising

    Filter2Noise-4D Yipeng Sun, Linda-Sophie Schneider, Siyuan Mei, Chengze Ye, Mingxuan Gu, Fabian Wagner, Siming Bayer, Andreas Maier
    In diesem Fachbeitrag wird das Filter2Noise-4D (F2N-4D) Framework vorgestellt, eine innovative Methode zur Rauschunterdrückung in 4D-CT-Bildern, die speziell für die Strahlentherapieplanung entwickelt wurde. Der Ansatz nutzt lernbare, inhaltsadaptive bilaterale Filter, die eine transparente und klinisch vertrauenswürdige Denoising-Methode ermöglichen. Durch die Nutzung von spatio-temporaler Information aus benachbarten Schichten und eine selbstüberwachte Trainingsstrategie erreicht F2N-4D eine hohe Performance bei minimalen Parametern. Der Beitrag diskutiert die Herausforderungen der Rauschunterdrückung in 4D-LDCT-Bildern und zeigt, wie F2N-4D diese durch eine Kombination aus mathematischer Transparenz und künstlicher Intelligenz überwindet. Die Ergebnisse demonstrieren die Überlegenheit von F2N-4D gegenüber herkömmlichen Methoden und unterstreichen dessen Potenzial für die Verbesserung der Strahlentherapieplanung und anderer bildgebender Anwendungen.
  9. Foundation Models in Medical Image Segmentation

    How Foundational Are Foundation Models Really? David Lurz, Luisa Neubig, Markus Kopp, Andreas Kist
    In diesem Fachbeitrag wird die Leistungsfähigkeit verschiedener Foundation Models in der medizinischen Bildsegmentierung umfassend evaluiert. Die Autoren untersuchen, wie gut Modelle wie SAM2.1, SAM3, MedSAM2, SAM-Med2D, SAM-Med3D, nnInteractive und VISTA3D auf über 80 medizinischen Datensätzen abschneiden, die eine Vielzahl von Bildtypen und Segmentierungsaufgaben abdecken. Dabei wird herausgefunden, dass MedSAM2 als das vielseitigste Modell hervortritt, während SAM-Med3D und VISTA3D in 3D-CT-Segmentierungsaufgaben überzeugen, jedoch mehr Rechenleistung und Speicher erfordern. nnInteractive zeigt sich als schnelles Modell mit guter Segmentierungsleistung. Die Studie beleuchtet auch den Einfluss verschiedener Prompt-Typen und deren Qualität auf die Segmentierungsleistung, was neue Erkenntnisse für die Optimierung dieser Modelle liefert. Die Ergebnisse zeigen, dass Foundation Models in vielen medizinischen Segmentierungsaufgaben hervorragend abschneiden, jedoch bei komplexen oder kleinen Strukturen wie Gefäßen, Tumoren oder Nebennieren noch Herausforderungen bestehen. Der Beitrag bietet wertvolle Einblicke für Fachleute, die sich mit der Anwendung und Weiterentwicklung von Foundation Models in der medizinischen Bildverarbeitung beschäftigen.
  10. Modular Pipeline for Rapidly Evaluating Foundation Models in Medical Imaging

    EvalBlocks Jan Tagscherer, Sarah de Boer, Lena Philipp, Fennie van der Graaf, Dré Peeters, Joeran Bosma, Lars Leijten, Bogdan Obreja, Ewoud Smit, Alessa Hering
    In diesem Fachbeitrag wird das Framework EvalBlocks vorgestellt, das speziell für die effiziente und reproduzierbare Evaluierung von Foundation Models in der medizinischen Bildgebung entwickelt wurde. Das Framework ermöglicht die Integration neuer Datensätze, Modelle und Bewertungsstrategien und unterstützt die parallele Ausführung von Experimenten auf Shared-Compute-Infrastrukturen. Die Autoren demonstrieren die Anwendung von EvalBlocks an fünf State-of-the-Art-Foundation-Modellen und drei medizinischen Bildgebungs-Klassifizierungsaufgaben. Dabei zeigen sie, wie das Framework die Evaluierung beschleunigt und die Reproduzierbarkeit der Ergebnisse sicherstellt. Ein weiterer Schwerpunkt liegt auf der Visualisierung der Ergebnisse, die eine tiefere Analyse der Feature-Embeddings ermöglicht. Durch die modulare Architektur und die Unterstützung von Caching und paralleler Ausführung reduziert EvalBlocks den Aufwand für die Evaluierung erheblich und ermöglicht es Forschern, sich auf die Verbesserung der Modelle zu konzentrieren. Die Ergebnisse zeigen, dass EvalBlocks eine wertvolle Ressource für die Entwicklung und Evaluierung von Foundation Models in der medizinischen Bildgebung darstellt.
  11. Parameter-efficient Finetuning of Foundational Models for Text-guided X-ray Image Segmentation

    Maeen Alikarrar, Christopher Syben, Joshua Scheuplein, Christian Hümmer, Ludwig Ritschl, Steffen Kappler, Andreas Maier
    In diesem Fachbeitrag wird eine innovative Methode zur Segmentierung von Röntgenbildern vorgestellt, die auf textgesteuerten Grundmodellen basiert. Die Autoren zeigen, wie durch die Integration von textbasierten Anweisungen und Low-Rank-Adaption (LoRA) die Segmentierung von Röntgenbildern verbessert werden kann, ohne das gesamte Modell neu zu trainieren. Die Studie konzentriert sich auf die Herausforderungen der Röntgenbildsegmentierung, wie überlappende anatomische Strukturen und Projektionsambiguität, und bietet eine Lösung, die sowohl effizient als auch präzise ist. Durch die Verwendung von textbasierten Prompts können Anwender ohne tiefgehende anatomische Kenntnisse präzise Segmentierungen durchführen. Die Ergebnisse zeigen eine deutliche Verbesserung der Segmentierungsqualität im Vergleich zu herkömmlichen Methoden. Die Studie liefert wertvolle Einblicke in die Anwendung von Grundmodellen in der medizinischen Bildverarbeitung und zeigt, wie textbasierte Steuerung die Segmentierung von Röntgenbildern revolutionieren kann.
  12. Revealing Eye-dentity

    Foundation Models Enable Re-identification from Retinal OCT Marc S. Seibel, Nele S. Brügge, Timo Kepp, Bennet Kahrs, Jan Ehrhardt, Heinz Handels
    In diesem Fachbeitrag wird die Fähigkeit von Foundation-Modellen untersucht, Individuen anhand von retinalen OCT-Scans (optische Kohärenztomographie) zu re-identifizieren. Die Studie evaluiert verschiedene Modelle, darunter generalistische und spezialisierte Foundation-Modelle, und analysiert deren Leistung bei der Extraktion biometrischer Merkmale aus OCT-Daten. Ein zentraler Fokus liegt auf der Untersuchung der Re-Identifikationsleistung sowohl innerhalb eines Geräts als auch zwischen verschiedenen OCT-Geräten. Die Ergebnisse zeigen, dass spezialisierte Modelle wie RETFound eine hohe Re-Identifikationsgenauigkeit erreichen, während generalistische Modelle nur leicht schlechter abschneiden. Die Studie hebt die potenziellen Risiken für die Privatsphäre hervor, insbesondere wenn OCT-Daten in der medizinischen Forschung und Praxis genutzt werden. Die Autoren diskutieren auch die Auswirkungen von Bildqualität und Geräteunterschieden auf die Re-Identifikationsleistung und schlagen Maßnahmen zur Verbesserung der Datensicherheit vor. Dieser Fachbeitrag bietet wertvolle Einblicke in die Herausforderungen und Möglichkeiten der Nutzung von OCT-Daten in der medizinischen Bildverarbeitung und KI-Forschung.
  13. Quantifying Anatomical Bias in Coronary Segmentation

    Why Your Model Prefers the LCA More Than the RCA Selina Baumgart, Nikolas Deubner, Andreas M. Kist
    In dieser Studie wird die Leistung von Deep-Learning-Modellen bei der Segmentierung von Koronararterien in Röntgenangiografien untersucht. Vier verschiedene U-Net-basierte Modelle wurden auf 599 Patienten mit zwölf häufig verwendeten Projektionwinkeln getestet. Die Ergebnisse zeigen, dass die Projektionwinkel einen größeren Einfluss auf die Segmentierungsqualität haben als der Arterientyp selbst. InceptionResNetV2 erzielte die höchsten Dice-Werte, während nnU-Net besser in der Erfassung von Kapillaren und Kathetern war. Die Studie hebt die Bedeutung der Berücksichtigung von Projektionwinkel-Diversität und segmentbezogener Bewertung in zukünftigen Benchmarks hervor, um eine klinisch zuverlässige Koronarsegmentierung zu gewährleisten. Die Analyse zeigt auch, dass distale Äste und Überlappungen von Gefäßen für alle Modelle eine Herausforderung darstellen. Die Studie bietet wertvolle Einblicke in die Optimierung von Deep-Learning-Modellen für die medizinische Bildverarbeitung und unterstreicht die Notwendigkeit einer differenzierten Bewertung von Modellleistungen unter verschiedenen anatomischen und bildgebenden Bedingungen.
  14. Exploring Cross-dataset Transferability in Lung Nodule Segmentation via Weak Supervision and Synthetic Anomalies

    Dominik Hirsch, Jan Ehrhardt, Heinz Handels
    In dieser Studie wird die Übertragbarkeit von Lungenknoten-Segmentierungsmodellen auf verschiedene Datensätze untersucht. Die Autoren schlagen eine schwach überwachte Methode vor, die Modellvorhersagen als Pseudo-Labels und synthetische Anomalien nutzt, um die Modellleistung ohne zusätzliche menschliche Annotationen zu verbessern. Die Studie zeigt, dass diese Methode die Leistung des TotalSegmentator-Modells auf dem LNDb-Datensatz verbessert, jedoch nicht an die Leistung von nachbearbeiteten TotalSegmentator-Masken heranreicht. Die Ergebnisse unterstreichen die Herausforderungen der Domänenverschiebung und die Notwendigkeit weiterer Verbesserungen in der synthetischen Anomalieerzeugung und der Rekonstruktionsnetzwerkleistung. Die Studie bietet wertvolle Einblicke in die Potenziale und Grenzen schwach überwachter Lernansätze in der medizinischen Bildverarbeitung.
  15. Abstract: LesionLocator

    Zero-shot Universal Tumor Segmentation and Tracking in 3D Whole-body Imaging Maximilian Rokuss, Yannick Kirchhoff, Seval Akbal, Balint Kovacs, Saikat Roy, Constantin Ulrich, Tassilo Wald, Lukas T. Rotkopf, Heinz-Peter Schlemmer, Klaus Maier-Hein
    In diesem Fachbeitrag wird LesionLocator vorgestellt, ein bahnbrechender Ansatz zur automatisierten Segmentierung und Verfolgung von Läsionen in 3D- und 4D-medizinischen Bilddaten. Die Autoren adressieren die Herausforderungen der Läsionssegmentierung und -verfolgung in der Onkologie, insbesondere die steigende Inzidenz von Krebs und die zunehmende Menge an Bilddaten. LesionLocator nutzt umfangreiche Vorabschulung und eine neue synthetische Datengenerierungstechnik, um die Knappheit von Mehrzeitpunkt-Datensätzen zu überwinden. Die Methode erreicht eine menschliche Leistungsfähigkeit in der universellen Läsionssegmentierung und übertrifft bestehende promptbare Modelle um nahezu 10 Dice-Punkte bei verschiedenen Tumorarten. Die autoregressive Maskenpropagation von LesionLocator erreicht eine Abrufrate von 86% und eine Dice-Genauigkeit von 79% bei der longitudinalen Verfolgung. Die Autoren stellen die erste Open-Access-Lösung für die promptbare Läsionsverfolgung bereit, einschließlich eines synthetischen 4D-Datensatzes und Modellgewichten. Dieser Fachbeitrag bietet wertvolle Einblicke in die neuesten Entwicklungen der medizinischen Bildverarbeitung und KI-Anwendungen in der Onkologie.
  16. Vision-language Models for Structured Report Generation in Radiology

    Towards Consistent and Reliable Chest X-ray Reporting Md Badhon Miah, Lukas Buess, Andreas Maier
    In diesem Fachbeitrag wird die Anwendung von Vision-language Modellen (VLMs) für die automatische Erstellung von strukturierten Röntgenberichten untersucht. Die Studie zeigt, dass strukturierte Berichte die Leistung von VLMs bei der medizinischen Bildinterpretation deutlich verbessern können. Durch die Einführung des SRRG-benchmark wird eine systematische Bewertung von LLMs für die Erstellung strukturierter Berichte ermöglicht. Zudem wird die Entwicklung einer neuen Metrik, RadFAA, vorgestellt, die die Zuverlässigkeit der Zuordnung von medizinischen Befunden zu anatomischen Systemen bewertet. Die Ergebnisse deuten darauf hin, dass strukturierte Berichte die klinische Genauigkeit und Zuverlässigkeit von KI-generierten Röntgenberichten erhöhen können. Die Studie liefert wertvolle Einblicke in die Verbesserung der medizinischen Bildinterpretation und die Reduzierung von Fehlern in der Berichterstattung.
  17. Abstract: Your other Left! Vision-language Models Fail to Understand Relative Positions in Medical Images

    Daniel Wolf, Heiko Hillenhagen, Billurvan Taskin, Alex Bäuerle, Meinrad Beer, Michael Götz, Timo Ropinski
    In diesem Fachbeitrag wird die Unfähigkeit von Vision-language models (VLMs) untersucht, relative Positionen in medizinischen Bildern korrekt zu identifizieren. Die Autoren zeigen, dass selbst fortgeschrittene Modelle wie GPT4o nur zufällig richtig liegen, was erhebliche Bedenken hinsichtlich ihrer Zuverlässigkeit in der klinischen Praxis aufwirft. Die Studie untersucht verschiedene Lösungsansätze, darunter die Verwendung von Segmentierungsmodellen zur Platzierung von Markern auf anatomischen Strukturen, die jedoch nur moderate Verbesserungen bringen. Eine tiefere Analyse reveals, dass VLMs oft auf memorisierte anatomische Kenntnisse zurückgreifen, anstatt die tatsächlichen Bilder zu analysieren. Dies führt zu fehlerhaften Antworten in Fällen wie situs inversus oder postoperativen Veränderungen. Die Autoren stellen MIRP vor, einen neuen Benchmark zur systematischen Testung von räumlichem Verständnis in medizinischen Bildern. Dieser Beitrag bietet wertvolle Einblicke in die Herausforderungen und potenziellen Lösungen für die Verbesserung von VLMs in der medizinischen Bildverarbeitung.
  18. Abstract: Leveraging Open-source Language Models for Clinical Information Extraction

    A Study in Resource-constrained Healthcare Settings Luc Builtjes, Joeran Bosma, Mathias Prokop, Bram van Ginneken, Alessa Hering
    In dieser Studie wird die Nutzung von Open-source Sprachmodellen für die Extraktion klinischer Informationen in ressourcenarmen Gesundheitseinrichtungen untersucht. Die Autoren evaluieren neun multilinguale Modelle anhand des DRAGON 2024 Benchmarks, der 28 Aufgaben aus den Bereichen Klassifizierung, Regression und Named Entity Recognition umfasst. Dabei zeigt sich, dass die Modelle ohne Feinabstimmung wettbewerbsfähige Ergebnisse erzielen können. Besonders hervorzuheben ist die Entwicklung des llm-extractinator Frameworks, das die automatisierte Extraktion strukturierter Informationen ermöglicht. Die Studie betont die Bedeutung von native-sprachlicher Inference und zeigt, dass die Übersetzung von Eingaben in Englisch die Leistung der Modelle negativ beeinflusst. Die Ergebnisse bieten eine praktische und datenschutzfreundliche Lösung für die medizinische Informationsverarbeitung in ressourcenarmen Umgebungen.
Nächste
  • current Page 1
  • 2
  • 3
  • 4
  • 5
Titel
Bildverarbeitung für die Medizin 2026
Herausgegeben von
Heinz Handels
Katharina Breininger
Thomas Deserno
Andreas Maier
Klaus Maier-Hein
Christoph Palm
Thomas Tolxdorff
Copyright-Jahr
2026
Electronic ISBN
978-3-658-51100-5
Print ISBN
978-3-658-51099-2
DOI
https://doi.org/10.1007/978-3-658-51100-5

Die PDF-Dateien dieses Buches entsprechen nicht vollständig den PDF/UA-Standards, bieten jedoch eingeschränkte Bildschirmleseunterstützung, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen zur einfachen Navigation sowie durchsuchbaren und auswählbaren Text. Nutzer von unterstützenden Technologien können Schwierigkeiten bei der Navigation oder Interpretation der Inhalte in diesem Dokument haben. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com

    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Deutsche Telekom MMS GmbH/© Vendosoft, Noriis Network AG/© Noriis Network AG, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data, Videocast 1: Standbild/© Springer Fachmedien Wiesbaden, KI-Wissen für mittelständische Unternehmen/© Dell_Getty 1999938268, IT-Director und IT-Mittelstand: Ihre Webinar-Matineen /© da-kuk / Getty Images / iStock