Skip to main content
Top

2021 | Book

Digitale Bildverarbeitung

Grundkurs mit neuronalen Netzen und MATLAB®-Praktikum

insite
SEARCH

About this book

Das Buch Digitale Bildverarbeitung gibt Einblicke in typische Methoden und Anwendungen. Es liefert eine solide Grundlage für die spätere fachliche Vertiefung. Dem einführenden Charakter entsprechend, steht exemplarisches, aktives Lernen an Beispielen und Übungen mit MATLAB® im Vordergrund. Wiederholungsfragen und kurze Aufgaben mit vollständigen Lösungen sowie viele Programmbeispiele mit Online-Ressourcen unterstützen den Lernerfolg. Ein PC mit MATLAB® und der Image Processing Toolbox wird vorausgesetzt.

Table of Contents

Frontmatter
Kapitel 1. Digitale Bilder
Zusammenfassung
Die Bilddarstellung durch eine digitale Kamera basiert auf der optischen Abbildung mit einer dünnen Sammellinse. Abtastung und Quantisierung des Bildes schließen sich an. Die so aufgenommenen Rasterbilder werden im Rechner als Bildmatrizen gespeichert. Bei einem Grauwertbild wird für jedes Bildelement ein Grauwert aufgenommen. Bei Farbbildern gehören zu jedem Bildelement drei Farbkomponenten. Die Bildverarbeitung geschieht durch Manipulation der Bildelemente durch ausgewählte Bildverarbeitungsalgorithmen.
Martin Werner
Kapitel 2. Helligkeit und Kontrast
Zusammenfassung
Die Intensitäten der Bildelemente werden als Grauwerte anhand von Maschinenzahlen diskret repräsentiert. Der Mittelwert der Grauwerte im Bild gibt dessen Helligkeit an. Den maximalen Unterschied zwischen den Grauwerten bezeichnet man als Kontrast. Bei der Bildaufnahme kann es durch Über- oder Unterbelichtung zu störendem Kontrastabfall kommen. Zur nachträglichen Verbesserung des Kontrasts wird die Gammakorrektur und das Histogrammebnen in verschiedenen Varianten eingesetzt.
Martin Werner
Kapitel 3. Punkt- und Rangoperatoren
Zusammenfassung
Punktoperatoren definieren die punktweise Abbildung eines Bildes. Abhängig von den Grauwerten im Original, werden den Bildelementen im Ergebnisbild Grauwerte zugewiesen. Eine spezielle Anwendung ist die Binarisierung durch Schwellenwertsegmentierung. Sie erzeugt Schwarz-Weiß-Bilder und kann die Trennung von Bildobjekt(en) und Bildhintergrund unterstützen. Hierzu kann der Schwellenwert mit der Methode von Otsu für jedes Bild automatisch berechnet werden. Eine spezielle Klasse von Punktoperatoren sind die Rangoperatoren. Sie beziehen in einer Rangoperation von Grauwerten benachbarter Bildelemente die Nachbarschaft des jeweiligen Bildelements mit ein. Bedeutsame Beispiele sind das Medianfilter, das Minimumfilter, das Maximumfilter, das Kantenfilter, das Schärfungsfilter und das konservierende Glättungsfilter. Das Medianfilter eignet sich besonders zur Unterdrückung störenden Impulsrauschens in Bildern.
Martin Werner
Kapitel 4. LSI-Systeme und lineare Filterung
Zusammenfassung
Die Familie der LSI-Systeme stellt wichtige Werkzeuge in der Bildverarbeitung. Die Grundlage bildet die lineare Faltung der Bilder mit den Faltungskernen der Systeme bzw. äquivalent die Kreuzkorrelation der Bilder mit den Filtermasken. Letzteres kann beispielsweise beim Abgleichen von Vorlagen durch Kreuzkorrelation mit den Bildern genutzt werden.
Martin Werner
Kapitel 5. Glättungsfilter, Rauschen und Verzerrungen
Zusammenfassung
Binomialfilter und Gauß-Filter sind typische Mittelungsfilter zum Weichzeichnen und zur Unterdrückung von Bildrauschen. Bei additivem weißen gausschen Bildrauschen (AWGN) werden die Pixel unabhängig gestört, so dass Mittelungsfilter oft gute Ergebnisse erzielen. Im Gegensatz zum additiven Bildrauschen stören Verzerrungen das Bildsignal direkt und systematisch. In wichtigen Anwendungen kann die Verzerrung als Filterung durch ein LSI-Systems modelliert werden, wie beispielsweise die lineare Bewegungsverzerrung. Man spricht von linearen Verzerrungen und gibt zur Beschreibung die Impulsantwort des verzerrenden LSI-Systems an.
Martin Werner
Kapitel 6. Kanten und Konturen
Zusammenfassung
Kanten begrenzen Objekte und spielen deshalb in der Objekterkennung eine zentrale Rolle. Es werden verschiedene Methoden vorgestellt, Kantenbilder zu gewinnen. Die parametrisierbare Canny-Methode generiert zu den Bildern in mehreren Schritten die Kantenbilder. Eine Alternative ist die Wasserscheidentransformation. Sie liefert geschlossene Konturen und kann a priori Wissen verarbeiten und verbundene Objekte trennen. Sie wird vor allem zur Segmentierung von Objekten eingesetzt.
Martin Werner
Kapitel 7. Kantenschärfen und Hough-Methode
Zusammenfassung
Mit dem Laplace- und dem LoG-Filter werden Kanten in Bildern „geschärft“. Eine vereinfachte Version des Verfahrens ist die Unschärfemaskierung. Kanten werden mit der Zero-crossing-Methode und der Hough-Methode detektiert. Basierend auf der Hough-Transformation wird die explizite Entdeckung und Klassifizierung von linien- und kreisförmigen Kanten erläutert und am praktischen Beispiel demonstriert.
Martin Werner
Kapitel 8. Morphologische Transformationen
Zusammenfassung
Die morphologischen Filter ändern die Gestalt von Bildobjekten. Die elementaren Transformationen Erosion und Dilatation lassen Bildobjekte schrumpfen bzw. wachsen. Elementare Operationen können zu komplexen Transformationen zusammengefügt werden. Es können Objekte geöffnet, geschlossen, gefüllt, verdickt und verdünnt werden. Das Skelettieren reduziert Bildobjekte auf ihre Struktur und führt zu einer Informationsverdichtung. Schließlich unterstützt die Hit-or-Miss-Transformation die Objekterkennung. Und bei der markergesteuerten Wasserscheidentransformation reduzieren morphologische Transformationen das Problem der Übersegmentierung.
Martin Werner
Kapitel 9. Fourier-Transformation für digitale Bilder
Zusammenfassung
Die zweidimensionale diskrete Fourier-Transformationen (2-D-DFT) ist eine Erweiterung der bekannten eindimensionalen DFT. Sie ist eine separierbare, bijektive, orthogonale und lineare (Block-)Operation. Die 2-D-DFT macht die bewährten Methoden der digitalen Signalverarbeitung im Frequenzbereich auch für die Bildverarbeitung verfügbar. Darüber hinaus ermöglicht sie auch spezielle Lösungen für die Bildverarbeitung.
Martin Werner
Kapitel 10. Filtern und Entzerren mit der 2-D-DFT
Zusammenfassung
Die 2-D-DFT ermöglicht die Bearbeitung von digitalen Bildern im Frequenzbereich. Typische Filterfunktionen, wie die bekannten Tiefpass-, Hochpass- und Bandpassfilter sowie Bandsperren, können mit der 2-D-DFT realisiert werden. Darüber hinaus lassen sich lineare Verzerrungen, z. B. bei der Aufnahme durch den optischen Frequenzgang verursacht, mit der 2-D-DFT-Implementierung des Wiener-Filters entzerren.
Martin Werner
Kapitel 11. Künstliche Neuronen und Lernen
Artificial Neurons and Learning
Zusammenfassung
Künstliche neuronale Netze ahmen die vernetzte Struktur der Nervenzellen im Gehirn und deren Arbeitsweise nach. Das Perzeptron steht für eine relativ einfache künstliche neuronale Struktur, die bereits erstaunliche Leistungen bei der Klassifizierung von Objekten aufgrund weniger Merkmale erbringen kann. Damit das gelingt, werden künstliche Neuronen anhand von bekannten Daten trainiert, z. B. mit einem beschleunigten LMSE-Algorithmus. Der Lernfortschritt wird mit der Lernkurve überwacht und die Entscheidungsfindung im Merkmalsraum sichtbar.
Martin Werner
Kapitel 12. Flache Neuronale Netze für die Klassifizierung
(Shallow Neural Networks for Clasifications)
Zusammenfassung
Künstliche neuronale Netze ahmen die vernetzte Struktur der Nervenzellen im Gehirn und deren Arbeitsweise nach. Relativ einfache künstliche neuronale Strukturen, flache neuronale Netze genannt, erbringen erstaunliche Leistungen bei der Klassifizierung von Objekten. Damit das gelingt, wird das neuronale Netz anhand von bekannten Daten trainiert. MATLAB unterstützt die Mustererkennung und Klassifizierung mit den Funktionen patternnet, train und net. Mit ihnen werden flache neuronale Netze implementieren, die zur Merkmalserkennung in der Bildverarbeitung eingesetzt werden.
Martin Werner
Kapitel 13. Lernen mit dem Backpropagation-Algorithmus
(Backpropagation Algorithm and Learning)
Zusammenfassung
Der Backpropagation-Algorithmus ermöglicht das Training der Zwischenschichten. Dabei ist er effizient und parametrisierbar. Die Zahl der Schichten und jeweiligen Knoten im NN sowie die Aktivierungsfunktionen und das Optimierungskriterium kann aufgabenspezifisch gewählt werden. Als numerisches Verfahren hat er jedoch Grenzen, weshalb für unterschiedliche Anwendungen Modifikationen und Ergänzungen existieren.
Martin Werner
Kapitel 14. Neuronale Netze mit Faltungsschichten
(Convolutional Neuronal Networks)
Zusammenfassung
Typische neuronale Klassifikationsnetze lassen sich durch Faltungsschichten erweitern. Eine Batterie linearer Filter mit spezifischen, gelernten Faltungskernen hebt Merkmale im Bild hervor, die die nachfolgende Klassifizierung unterstützen. Dazu wird der Backpropagation-Algorithmus so erweitert, dass auch die Faltungskerne mitoptimiert werden. Neuronale Netze mit Faltungsschichten zur Merkmalsextraktion und mit Vorwärtsstrukturen zur Klassifizierung werden häufig in der Mustererkennung bei Bildern eingesetzt. Erkennungsquoten von 95 % und mehr können in Beispielen erreicht werden.
Martin Werner
Erratum zu: Digitale Bildverarbeitung
Martin Werner
Backmatter
Metadata
Title
Digitale Bildverarbeitung
Author
Prof. Dr. Martin Werner
Copyright Year
2021
Electronic ISBN
978-3-658-22185-0
Print ISBN
978-3-658-22184-3
DOI
https://doi.org/10.1007/978-3-658-22185-0