Skip to main content
Top

1989 | Book

Mustererkennung 1989

11. DAGM-Symposium Hamburg, 2.–4. Oktober 1989 Proceedings

Editors: Hans Burkhardt, Karl Heinz Höhne, Bernd Neumann

Publisher: Springer Berlin Heidelberg

Book Series : Informatik-Fachberichte

insite
SEARCH

About this book

Mustererkennung heißt, ähnlich wie bei Sinneswahrnehmungen mit Sensoren Signale aus der technischen Umwelt zu empfangen und mit Hilfe zuvor gelernter Situationen momentane Messungen zu interpretieren und dabei im Hinblick auf neue Eindrücke lernfähig zu sein. Anläßlich des 11. DAGM-Symposiums wurden zu diesem Themenkomplex nahezu 100 Arbeiten eingereicht, von denen 42 Vorträge und 38 Plakatpräsentationen zur Tagung und für dieses Buch ausgewählt wurden. Der Band enthält Aufgabenstellungen, Denkweisen und neuere Forschungsergebnisse aus den Gebieten Mustererkennung, Bildverstehen, Bildfolgen, Wissensverarbeitung und Spracherkennung.

Table of Contents

Frontmatter

Digitale Geometrie, Morphologie, Topologie

Plakate

Interpretation von Icons auf Topologischen Listen

Es wird ein Verfahren zur Kodierung/Konvertierung von Binär,- Quasibinär- und Grauwertbildern mit relativ großen homogenen Flächen in eine vektorähnliche Struktur vorgestellt. Der Code basiert auf einer nach topologischen Gesichtspunkten vorgenommenen Segmentierung des Rasterbildes und enthält eine vollständige Beschreibung des zu analysierenden Dokumentes.Die generierten Basis-Listen, die im wesentlichen Koordinaten von Polygonzügen enthalten, finden nach einer mehrstufigen Erweiterung bei der Interpretation von ICONS (Sinnbildern) Verwendung. ICONS sind Sinnbilder, die mehr oder weniger komplexe Sachverhalte graphisch illustrieren und veranschaulichen. ICONS können die unterschiedlichsten Ausprägungen und Ausdehnungen annehmen. Daher sind ICONS besonders geeignete Untersuchungsobjekte für Interpretationsaufgaben.

R. Bollhorst, F. Leschonski
Ein neues Verfahren zur Verdünnung von Binärbildern

In dieser Arbeit wird ein neues Verfahren eingeführt, das „der Rapid Thinning (RT) Algorithmus“ genannt wird. Dieses Verfahren basiert auf dem einfachen und gültigen Skelettmodell digitaler Bilder. Dabei wird im Vergleich zum Algorithmus von Pavlidis (Classical Thinning (CT) Algorithms)/(vgl. Pavlidis 1982:199) eine wesentlich kürzere Laufzeit erreicht.

Yu Ji
Intrinsic Topology of Medial Axis

The medial axis transform is used frequently in the segmentation of binary images, where it is necessary, to seperate unconnected objects into different classes. The instable behavior of the medial axis transform, as known in the literatur, makes the application of this technique more difficult. A metrical regularization of the transform was proposed in [3], in which two parameters were contained. The suitable determination of the both parameters, as in the regularization of many ill-posed problems, depends on the context, so that a general theory on the choice of the parameters is impossible.

Zhangzheng Yu
Application of Mathematical Morphology to Machine Vision

This paper gives an analysis of a variety of morphological vision procedures. The analysis is designed to illustrate the power and flexibility of mathematical morphology for the extraction of shape information from gray tone and binary images.

Hyonam Joo, Robert M Haralick
Objekterkennung durch Monomorphie von Anordnungsgraphen

Die Einführung nichtmetrischer Anordnungsrelationen ermöglicht eine graphentheoretische Beschreibung von Punktstrukturen ohne zusätzliches a-priori-Wissen. Durch die Definition geeigneter Isomorphie- bzw. Monomorphiekriterien kann das Korrespondenzproblem zwischen zwei beliebigen orthogonalen Abbildungen planarer Objekte durch einen effizienten Suchalgorithmus gelöst werden. Ferner lassen sich die Anordnungsrelationen zur Erkennung eines 3D-Objektes in einer Abbildung innerhalb eines vorgegebenen Aspektwinkelbereiches anwenden.

Herbert Müller
Geometrische Transformationen in der Diskreten Ebene

In der digitalen Bildverarbeitung und Computergrafik ist für viele Anwendungsfälle die Beherrschung verschiedener geometrischer Transformationen, insbesondere von Bewegungstransformationen wie Verschiebungen, Drehungen und Spiegelungen wichtig.

Albrecht Hübler
Lage- und skalierungsinvariante Skelette zur robusten Beschreibung und Erkennung binärer Formen

Das in der kontinuierlichen Ebene sehr einfache Konzept der Mittelachsentransformation zur Beschreibung binärer Formen konnte bisher nur in Teilen auf die diskrete Ebene übertragen werden, da topologische Aspekte und euklidische Metrik sich nicht zwanglos vereinigen lassen, solange am diskreten Raster festgehalten wird. Die Evaluation des Voronoi-Diagramms einer Objektberandung fördert die frühzeitige Loslösung vom diskreten Bildraster. Im Sinne einer alternativen Definition des euklidischen Skeletts wird ein einfaches Kriterium zur Extraktion von signifikanten Diagrammkomponenten postuliert, einschliesslich der Garantie zusammenhängender Skelette und ihrer Invarianz gegenüber Ähnlichkeitsabbildungen. Die sog. Voronoi-resp. V-Skelette dienen als Ausgangsbasis für einen nachfolgenden Erkennungsprozess, wobei Isolation der Objekte ohne Rückgriff auf vorangehende Identifikation stattfinden kann. Die Identifikation ist sowohl für geometrisch starre als auch „elastische“ Objekte durchführbar.Die Methode als Ganzes präsentiert sich als erfolgreiche diskrete Umsetzung des Blumschen Skelettkonzepts.

Robert Ogniewicz, Olaf Kübler, Fernand Klein, Ulrich Kienholz
Parametrization of the Hough Transform

The Hough transform is used in picture processing for detecting linear structures in binary images. It associates to each line running through the image the integral along this line of the gray value function. There are many different possibilities for parametrizing lines in the plane and, depending on the applications under consideration, there exist many approaches for parametrization having different properties. The aim of this paper is to give a unified theoretical framework for the parametrization of the Hough transform. On the basis of this theoretical work it becomes possible to compare different parametrizations proposed so far and to construct parametrizations having desirable properties.

Ulrich Eckhardt, Gerd Maderlechner
Texturanalyse, Fraktale und Scale Space Filtering

Das Verfahren des Scale Space Filtering wurde bisher in der Bildverarbeitung zur Beschreibung und Erkennung von ebenen Kurven sowie zweidimensionalen Formen benutzt. In diesem Beitrag wird eine darauf basierende neue Methode zur Berechnung der fraktalen Dimension von digitalen Grauwertbildern vorgestellt. Die fraktale Dimension wird als ein quantitatives Maß zur Texturanalyse, speziell der Textursegmentation, eingesetzt.

Uwe Müssigmann

Dreidimensionale Bildauswertung

Plakate

A System that Learns to Recognize 3-D Objects

A system that uses induction in order to learn to recognize simulated scenes of 3-D objects is presented. A simulator generates line drawings representing polyhedra which are used as input to a learner. It also composes polyhedral scenes which are given as input to a recognizer. The learner builds up a knowledge base of definitions that describe these polyhedra from single or multiple views presented to it by the user. The definitions use a structural representation and a minimum of input primitives, based on a number of simple assumptions about the polyhedra. The recognizer attempts to interpret the scenes according to its experience in the learnt polyhedra. The system achieves to recognize all the objects that it has learnt within a reasonable amount of time.

G. Gabrielides
A Two-Step Modelling Algorithm for Tomographic Scenes

The boundary of 3-D tomographic objects is modelled by polygons for the purpose of visualization. At first boundary faces of 3-D regions are detected and transformed into a list of small edges. The detection step is solved by the boundary tracking algorithm of Artzy et al.[1] Next in a polygon growing step adjacent coplanar edges are merged into planar loops. The advantages of independent subscene analysis in relation to the implementation of Frieder et al. [2] are also discussed.

Włodzimierz Kasprzak
On the Capacity of Quantitative Computational Shape Recovery from Local Shading Information

In the past decade of computational vision research considerable attention has been paid to shape estimation from shading information. Computational approaches incorporate numerous assumptions in order to constrain the solution space. Out of the set of techniques defined so far, Pentland’s local shape estimation algorithm claims to be the one of most general applicability. With respect to the question what role this estimator can play in a general purpose vision system, a thorough evaluation has been carried out to assess the influence of inherent free parameters on the solution.

Heiko Neumann
Verwendung einer Bildauswertungsmethode für polyedrische Szenen zur Erkennung von Werkstücken aus gebogenem Blech

Auf dem Bildauswertungssystem VISTA (Visuelles Interpretationssystem für Technische Anwendungen) wurde der von Sugihara /6/ vorgeschlagene Algorithmus zur Interpretation von Strichzeichnungen implementiert. Seine Methode erlaubt es, aus zweidimensionalen Strichzeichnungen polyedrischer Objekte eine qualitative, topologische Beschreibung abzuleiten. Die Methode soll benutzt werden, um geeignete Werkstücke in ihrer Fertigungsumgebung erkennen zu können. Blechbiegeteile (siehe Abb. 1a–1b) sind Werkstücke, die dafür in Frage kommen, da man sie unter der Annahme einer örtlich eng begrenzten Biegezone als Polyeder betrachten und deren berechnete Konturbilder als Eingang für den Interpretations-Algorithmus verwenden kann.

Claus Müller, Susanne Rössle, Hans-Hellmut Nagel
Ein Attributiertes Relaxationsverfahren zur 3D-Lageerkennung von Objekten

Es wird ein recheneffizientes und robustes Verfahren zur Lagebestimmung dreidimensionaler Objekte aus einer monokularen Ansicht vorgestellt. Das Verfahren basiert auf einer attributierten Relaxation. Es ist in der Lage auch bei komplexen Szenen mit mehreren sich überlappenden Objekten gute Resultate zu liefern.

M. Heuser, C.-E. Liedtke
Adaptive Light Encoding for 3-D-Sensing with Maximum Measurement Efficiency

Für das 3-D-Maschinensehen mit einer Triangulationskamera wird eine neue Klasse hybrider Codes zur flächenhaften Objektmarkierung eingeführt. Diese Codes vereinigen die Genauigkeit analoger Markierungsfunktionen mit der Robustheit digitaler Codes. Maximale Meßgeschwindigkeit wird erzielt, indem die Codes die verfügbare Qualität des Videosignals ausnutzen.Eine aktive 3-D-Kamera, bestehend aus Laser-Codeprojektor, CCD-Sensor und Codierungssystem kann sowohl für Messungen im Submillimeter-Bereich, als auch für die Objekterkennung im Meterbereich eingesetzt werden. Durch automatische Analyse des Nachrichtenkanals „Projektor-Objekt—Kamera-Bildspeicher“ und variable Codegenerierung kann die jeweils verfügbare Kanalkapazität ausgenutzt werden, um die Übertragungszeit der Markierungsinformation zu minimieren. Die Projektion und Bildsequenzaufnahme für eine topographische Karte mit absoluten Distanzwerten erfordert zwischen 160 ms bis 320 ms.

R. Malz
Gewinnung von Oberflächenformen aus einem Grauwertbild durch Shape from Shading

Es werden verschiedene Verfahren des Shape from Shading (Form aus Schattierung) vorgestellt und Ergebnisse präsentiert, die mit diesen Methoden erzielt wurden.Bei Shape from Shading werden aus den Daten eines einzigen Grauwertbildes die in der Szene vorliegenden Oberflächenformen berechnet. Das erste hier gezeigte Verfahren liefert eine schnelle Grobklassifikation der Oberflächen als eben, zylindrisch oder sphärisch. Bei zwei weiteren Methoden wird durch eine lokale Untersuchung der Grauwertänderung in der Umgebung eines jeden Bildpunktes die Oberflächennormale in jedem Punkt bestimmt. Aus diesen Daten kann dann die Oberflächenform rekonstruiert werden. Das vierte Verfahren beruht auf einer biologisch motivierten Approximation der Reflexionsfunktion der Oberfläche. Unter dieser Voraussetzung kann direkt aus der Grauwertfunktion auf die Oberflächenform geschlossen werden.Bei der Erprobung der Methoden hob sich speziell ein Verfahren durch gute Ergebnisse hervor.

Heinz Brünig, Reinhard Prechtel

Anwendungen

Plakate

Bildanalytische Qualitätskontrolle in der Mikrofertigung
Ein vollautomatisches, hochflexibles und schnelles Strukturmeßsystem

Im Rahmen des Arbeitsschwerpunktes Mikrotechnik werden im Kernforschungszentrum Karlsruhe (KfK) Prozeßtechniken zur Herstellung von mechanischen Mikrostrukturen entwickelt, die durch ihr außerordentlich hohes Aspektverhältnis, das Verhältnis von Strukturwandhöhe zu Strukturwandbreite, stabile Strukturen im mikroskopischen Bereich ermöglichen. Mit dem sog. LIGA-Verfahren (Li thographie, G alvanik, A bformung) können Strukturen im Mikrometerbereich mit einem Aspektverhältnis bis zu 100 und Abweichungen in der Strukturwanddicke im Submikrometerbereich hergestellt werden. Dabei sind beliebige Geometrien realisierbar [Becker85]. Beschleunigungssensoren, optische Multiplexer, hochpräzise Düsen, Mikrostecker oder Filter (Abb. 1) sind eine kleine Auswahl möglicher Kandidaten für die Fertigung mit dem LIGA-Verfahren.

Bernhard Bürg, Helmut Guth, Andreas Hellmann
Automatische Auswertung Von Mikroskopbildsequenzen Beim Kristallwachstum

Am Institut für Physikalische Chemie der TU werden die Mechanismen des Wachtums und der Auflösung von organischen Molekülkristallen am Beispiel der Fettsäure Stearinsäure untersucht /1/. Bestimmungsgröße bei diesen Untersuchungen ist die Wachstums- bzw. Auflösungsgeschwindigkeit der Kristallränder. Bei der Auflösung bilden sich zusätzlich auf der Kristalloberfläche Ätzgruben, deren Randausbreitungsgeschwindigkeit erfaßt werden soll. Dies erfordert die lichtmikroskopische Beobachtung der Kristalle über typischerweise 5–60 Minuten. Da insbesondere die Dynamik der untersuchten Prozesse als Funktion der Zeit bestimmt und mehrere Kanten und Ätzgruben mit je 4 Rändern gleichzeitig beobachtet werden sollen, ist eine direkte manuelle Vermessung am Mikroskop oder der auf einem Videorecorder aufgezeichneten Bildsequenz nicht möglich bzw. zu zeitaufwendig und fehleranfällig. Eine umfangreichere Untersuchung ist nur möglich, wenn es gelingt, mit Hilfe von Bildverarbeitungsverfahren die Messung zu automatisieren. Deshalb wurde am Institut für Nachrichtentechnik in Zusammenarbeit mit dem Institut für Physikalische Chemie ein Verfahren entwickelt, welches eine automatische Auswertung ermöglichen soll.

V. Märgner, W. Beckmann, M. Rauls
On-Line-Mustererkennung von Prozeßzuständen

In der Automatisierungstechnik tritt das Problem auf, daß ein aktueller Prozeßverlauf beurteilt werden muß. Sei es, um eine Aussage über die zu erwartende Güte des Endproduktes zu machen, um eventuelle Störungen vorhersagen zu können oder als Orientierungshilfe für einen menschlichen Prozeßfahrer. Bei kontinuierlichen technischen Prozessen, deren Systemparameter eventuell nur schwer zugänglich sind (z.B. in der Verfahrenstechnik) und die sich außerdem nur schwer über mathematische Modelle beschreiben lassen, besteht eine Möglichkeit im Vergleich mit in der Vergangenheit aufgetretenen und damit bereits bekannten Systemzuständen. Hierbei sollen Methoden der Mustererkennung eingesetzt werden, die schritthaltend eine Wissensbasis aufbauen und diese parallel zum Prozeßgeschehen fortlaufend anpassen.

Harald Peters
Fernerkennung in der Ortung

Die im Rahmen der Ortungs-Fernerkennung von der Mustererkennung zu lösende Aufgabe besteht darin, aus den empfangenen Echosignalen Wahrscheinlichkeitsaussagen über in Störungen vorhandene Objekte in Form von Entscheidungen abzuleiten. Dazu werden bekannte vordem statistische Eigenschaften der Nutzsignale und der Störungen genutzt. In der Literatur zur Objekterkennung besteht die Tendenz zur Prozeßautomatisierung, [1], [2]. Wenn es auch auf diesem Gebiet in der Telekommunikation große Errungenschaften gibt, so betrifft das jedoch in geringem Maße die Ortungssysteme. Beweis dafür ist die Tatsache, daß sich am Ausgang der meisten Ortungssysteme ein Monitor befindet, dessen Beobachtung einem Operateur es ermöglicht, eine Entscheidung über das Vorhandensein eines Objektes und über die Bestimmung seiner Lage im Raum zu treffen.

D. Ruser
Skalenmessungen in der Eis-Fernerkundung

Eine zentrale Größe des globalen Klima ist die Eisbedeckung der polaren Ozeane. Diese muß in unterschiedlichen Skalen beobachtet werden, um flächendeckende Aufnahmen sowie statistisch sichere Aussagen über kleinskalige Prozesse zu erhalten. Die quantitative Größe der Modifikation von Wärmeverlust und Verdunstung wird vor allem von der Eis-Konzentration, d.h. der prozentualen Eisbedeckung, sowie der morphologischen Beschaffenheit der Schollen bzw. der eisfreien Rinnen, bestimmt. Morphologische Größenmessungen liefern Aussagen über die vorkommenden Skalen. Sie können auf spezifische Bildregionen eingegrenzt werden und liefern für Eis- (hohe Albedo) und eisfreie Flächen (niedriger Albedo) getrennte Werte. Durch eine geeignete Wahl der Größenmasken sowie deren Zerlegung in eine Reihe von Zweipunktoperationen können die Größenverteilungen sehr effizient berechnet werden.

Markus Schmidt, Thomas Viehoff
Modellgestütztes Bildverstehen von Dokumenten

Will man Bilder einer erweiterten Nutzung durch Computer zuführen, ist es sinnvoll, sie tiefer zu strukturieren und gesuchten Klassen und Bedeutungsinhalten zuzuordnen, d.h. „verstehen“ zu lassen. Wir stellen ein System zum Verstehen von Dokumenten nach Bildvorlagen vor, in welchem alles Wissen konsequent in semantisch eindeutigen Konzepten repräsentiert ist. Aus diesen Konzepten leitet ein flexibel steuerbarer Schlußfolgerungsprozeß logische Aussagen bzw. Hypothesen über das Bild her und versucht, diese im Bild zu bestätigen. Zur Beherrschung der mächtigen Suchräume in den Konzept-, Bildobjekt- und vor allem Hypothesennetzen verfügt das Analysesystem über reichhaltig Metawissen und Möglichkeiten, um die Schlußfolgerungsstrategie effizient zu gestalten. Stichwörter sind hier: Heuristiken, Focus of Attention und Truth Maintenance. Anwendungszweck des als Prototyp entwickelten Systems ist die Überführung von Papierdokumenten in Textverarbeitungssysteme oder Datenbanken. Außerdem stellen Dokumente einen relativ einfachen Objektbereich dar, in welchem diese für die Bildanalyse allgemein interessanten Verfahren systematisch erprobt werden können.

Joachim Kreich
Lageerkennung von Werkstücken innerhalb einer Blechbearbeitungszelle

Flexible und automatisierte Produktionsanlagen sind eine wichtige Voraussetzung für die Verbesserung der Wettbewerbsfähigkeit der produzierenden Unternehmen. Gerade bei der automatischen Fertigung in kleinen Losgrößen mit möglichst geringen Rüstzeiten ist es notwendig, den Materialfluß flexibel zu gestalten. Dies bedingt jedoch die Identifikation und Lageerkennung der Werkstücke an den Bearbeitungseinheiten. Dazu bieten sich insbesondere Sensorlösungen an. Der vorliegende Artikel beschreibt ein kameragestütztes Lageerkennungssystem, daß unter Verwendung kostengünstiger Hard- und Software in eine Bearbeitungszelle integriert und dort mit Erfolg eingesetzt wurde.

R. Lange, S. Schröder, U. Geißler
Temperaturbestimmung in Flammen mittels multispektraler Aufnahmen und tomographischer Bildverarbeitung

In dem vorliegenden Bericht werden Methoden zur Auswertung von multispektralen Aufnahmen leuchtender Prozesse (Flammen von z.B. Kerze, Bunsenbrenner, Satelliten-Steuertriebwerk) vorgestellt. Bei den Prozessen handelt es sich um Volumenstrahler, das heißt, die Aufnahmen sind Projektionen der dreidimensionalen Strahlungsdichte in die zweidimensionale Kameraebene. Aus diesen projektiven Aufnahmen der Prozesse muß zunächst die räumliche Verteilung der Meßgrößen gewonnen werden. Dies geschieht mit Hilfe von Methoden der Computer-Tomographie. Mit Verfahren der Pyrometrie wird dann die räumliche Temperaturverteilung bestimmt.

Wolfgang Fischer
Erfassung von optisch beobachtbarem Tierverhalten mittels Bildverarbeitung

Es wird ein Bildverarbeitungssystem beschrieben, das Daten über die Wirkung von Schädlingsbekämpfungsmitteln gewinnt. Aus Bildsequenzen werden Gesamt- und Einzelaktivität sowie Populationsdynamik ermittelt. Ein spezielles Skelettierungsverfahren bestimmt Form und Bewegungsart einzelner, länglich geformter Objekte.

P. Herrmann, V. Schmitt, J. de Kramer
Progressive Bildübertragung mit der 3 × 3/2 Pyramide

Digitale Bilder stellen eine größere Datenmenge (ab 256 kByte) dar, als sie bei konventioneller Datenübertragung auftritt. In dieser Arbeit wird eine Methode präsentiert, welche sowohl progressive Übertragung als auch komprimierte Speicherung von digitalen Bildern ermöglicht. Diese Methode wurde von Burt und Adelson für die 5 × 5/4 Pyramide entwickelt. Wir verwenden als Datenstruktur eine 3 × 3/2 Pyramide. Dadurch ist ein glatterer Bildaufbau bei der Übertragung möglich. Die Komprimierungsraten, die sich bei Versuchen ergaben, liegen zwischen 1:10 und 1:20.

Harald F. Mayer, Walter G. Kropatsch

Medizinische Anwendungen I

Plakate

Erkennung von Bildmustern mit Hilfe von Invarianten Momenten

In der Röntgendiagnostik tritt häufig die Fragestellung auf, anhand einer im Laufe eines Beobachtungszeitraumes entstandenen Röntgenbildserie zeitabhängige Veränderungen bestimmter anatomischer Strukturen zu erkennen. Aufgrund der hohen optischen Dichte der zu vergleichenden Röntgenbilder führt eine direkte Überlagerung der Filme auf einem Leuchtkästen oft zu unbefriedigenden Ergebnissen. Die gegenseitige Zuordnung der bilder anhand von stabilen anatomischen Strukturen stellt ein zusatzliches Problem dar. Ein Anwendungsbeispiel ist die Überlagerung von Fernröntgenseitenbildern in der Kieferorthopädie zum Studium von Wachstumsvorgängen und Therapieverläufen.

Norbert Harendt, Werner Döler, Andreas Jäger
Ein lernendes System zur Zellbildanalyse

Im Rahmen von Maßnahmen zur Krebsfrüherkennung fallen große Mengen von Zellausstrichpräparaten zur mikroskopischen Begutachtung an. In der ersten Stufe der Auswertung werden aus der Gesamtmenge der Präparate, in der die negativen, das heißt gesunden, bei weitem überwiegen, die eindeutig negativen Fälle ausgesondert.

R. Dörrer, J. Fischer, W. Greiner, W. Schlipf, P. Schwarzmann
Adernextraktion durch iteratives Gradientenmatching in stark verrauschten medizinischen Bildern

Wir stellen einen Ansatz zur Extraktion schmaler Adern in verrauschten medizinischen Einzelbildern vor. Es werden im wesentlichen Eigenschaften wie die nahezu konstante Aderdicke, die Parallelität und gleiche Steilheit der Ränder als Vorwissen benutzt. Obwohl an Verzweigungsstellen noch Erkennungsfehler auftreten, reicht die Auflösung außerhalb dieser Bereiche bis zu einer Aderbreite von 2-3 Bildpunkten. Der Algorithmus ist klinisch noch nicht erprobt und nicht als Produkt erhältlich.

K. Waidhas, R. Kutka
Segmentierung biologischer Objekte aus CT- und MR- Schnittserien ohne Vorwissen

Durch die Entwicklung von Raytracingverfahren [2,3], welche ohne Oberflächenin-formation arbeiten, ist es möglich geworden, biologische Objekte aus CT- und MR- Schnittserien transparent erscheinen zu lassen. In den rekonstruierten Bildern konnte aufgrund der transparenten Darstellung die Größe und Lage von Organen„erahnt“ werden. Eine klare Trennung bzw. Abbildung der Organe kann mit dem Raytracingverfahren alleine nicht ezielt werden, da die Information der Grauwerte von solchen Schnittserien nicht ausreichend ist. Allerdings ist in vielen Fällen gerade die genauere Betrachtung der einzelnen Organe für eine eindeutige Diagnosefindung von Bedeutung. Bei tumorösen Veränderungen interessiert zusätzlich auch noch das Organinnere.Daher suchen wir in unserer Arbeitsgruppe nach geeigneten Segmentations- bzw. Klassifikationsverfahren, um bei der dreidimensionalen Visualisierung von Schnittserienbildern eine klar erkennbare Organdifferenzierung durchführen zu können. Zu diesem Zweck benutzen wir die selbstlernende topologische Merkmalskarte als geeignetes Hilfsmittel.

F. Saurbier, D. Scheppelmann, H. P. Meinzer
On Scale-Space Edge Detection in Computed Tomograms

We describe research toward a general multi-scale edge detection scheme. Since local discontinuity profiles at arbitrary loci in two-dimensional discrete images can be characterized as possessing prior unknown scales along the gradient direction, convolution of the discrete intensity function with kernels of fixed spatial operator support evidently results in only locally suboptimal and thus non-reliable operator responses. Hence we propose a multi-scale scheme following Marr’s and Korn’s approach. We present the theoretical framework for the 1-D case as well as results from an initial experimental implementation for the two-dimensional discrete case of X-ray computed tomograms.

Svend Back, Heiko Neumann, H. Siegfried Stiehl

Segmentierung

Plakate

Steuerung von Erkennungsprozessen durch Baumsuchverfahren

Es wird ein allgemeiner Ansatz zur maschinellen Bearbeitung von Bürodokumenten mit frei gestaltetem Layout beschrieben. Der Lösungsansatz beruht auf einer ergebnisabhängigen Steuerung der für Teilaufgaben vorgesehenen Spezialisten innerhalb des gesamten Erkennungsprozesses. Hierbei werden mögliche Lösungen als Blätter eines zu entwickelnden Suchbaumes aufgefaßt und ein im Sinne einer geeignet vorzugebenden Kostenfunktion optimaler Lösungsweg schnittweise ausgewählt. Die praktische Durchführbarkeit des Verfahrens wird anhand einer Fallstudie zur Segmentierung verklebter Schriftzeichen aufgezeigt und durch mehrere Anwendungsbeispiele erhärtet.

Astrid Banzhaf, Ulrich Boes, Manfred Kramer
Image Segmentation for the Recognition of Characters on Different Materials

Image segmentation is a fundamental problem in scene analysis. In optical character recognition (OCR), uniform illumination and good contrast between characters and background are desirable to achieve a useful segmentation. These conditions cannot be guaranteed for industrial and outdoor scenes. In this paper we present a segmentation method for grey-scale images which has been successfully applied on rubber wheels, glass bottles and traffic signs as preprocessing before the actual character recognition is done. The method is based on a model of human vision. A measure for the segmentation error of characters is proposed. Using this measure, a knowledge based segmentation procedure is implemented. Segmentation and classification results are presented and discussed.

M. Dehesa, C.-E. Liedtke
Rotationswinkelbestimmung in abgetasteten Dokumentbildern

Das Papier behandelt ein wenig angesprochenes, jedoch essentielles Problem im Bereich der Low-Level Bildverarbeitung von Dokumenten: Die Bestimmung des optimalen Rotationswinkels, um ein abgetastetes Dokumentbild rechnerintern in eine Lage zu bringen, sodaß die enthaltenen Textzeilen waagrecht verlaufen. Das Papier stellt zwei aus der Literarur bekannte Ansätze vor und stellt sie einem von uns entwickelten neuen Verfahren gegenüber, das hinsichtlich der Geschwindigkeit der Winkelbestimmung wesentliche Verbesserungen bringt. Dabei werden alle drei Verfahren kritisch beeuchtet und an Beispielen ein Vergleich bezgl. ihrer Laufzeit und Genauigkeit aufgezeigt.

Andreas Dengel, Eberhard Schweizer
Visualisation and Three Dimensional Presentation in Orthopaedics and Traumatology

Since the discovery of the X-ray, sagittal and frontal tomography has been introduced to medical practices, for more exact definitions of opacities for survey radiographs. These tomographies occur by only highlighting a particular area of the body and blurring the background through smear techniques. A computer supported evaluation, such as a tumour volume assessment, is however very inadequately predictable by this method. Only since the conception of X-ray-computer tomography at the beginning of the 1970’s has it been made possible, to further process x-rays digitally. The rotational tomography equipment used today, consist of a fanbeam whose radiation angle is so concipated that it encompasses the whole body section. The weekend rays are taken from a respectively large detector array (more than 500 monitoring probes) simultaneously /1/. A higher speed, with equivalent mechanical stability, is supplied by tomography equipment of the fourth generation, by which a 360 degree fixed assembled set of detectors (over 1000 monitoring probes) radiographs the rays from the X-ray tube rotating around the body. With dedicated hardware and special image reconstruction algorithms (Radon Transformation or Back Projektion) the sectional image of the radiated layer from the low intensity samples is calculated within approximately 1–3 secs. The local resolution of these radiographs is typically 256·256 pixels or even 512·512 pixels. The image halftone resolution is 12 bit /15/.

K.-H. Englmeier, A. Wieber, C. Hamburger, T. Mittlmeier
Verfahren zur graphisch-interaktiven Objektselektion in gespeicherten Bildern

Unter dem Begriff des „Imaging“ werden Methoden und Applikationen der digitalen Verarbeitung von Bildern subsummiert. Das orts-, amplituden-, und zeitdiskrete Bild erscheint dabei gleichsam als eine Schnittstelle zwischen den beiden klassischen Bereichen der Bildgenerierung (Bildsynthese, Visualisierung von Objekten) und des Bildverstehens (Bildanalyse, Objekterkennung).

Georg Rainer Hofmann, Axel Hildebrand
Cognitive Texture Parameters — the Link to Artificial Intelligence

The experience with todays texture shows, that it helps only little for the interpretation of CT images in the medical field, since first it is not easy to choose the correct texture parameter from the zoo of exsisting ones and second the texture parameters in general do not match human visual impressions. The following concept shows, how texture parameter can be grouped in families, which gives a better insigth into texture analysis. Each class of texture parameter is represented by a complete set of texture parameters avoiding redundancies. Those families and their texture parameters are adopted to the human texture impressions and are therefore called ‘cognitive texture parameters’.

D. Scheppelmann, F. Saurbier, H. P. Meinzer, J. Klemstein
Multiscale, Geometric Image Descriptions for Interactive Object Definition

A means is described of analyzing two- and three-dimensional images into a directed acyclic graph of visually sensible, coherent regions and of using this DAG as the basis for interactive object definition. The image analysis is in terms of the geometry of the intensity surface via a multiscale approach with a focus on symmetry properties about ridges. The image analysis method, a system for interactive object definition, and results of their use on two-dimensional images are reported.

Stephen M. Pizer, John M. Gauch, James M. Coggins, Timothy J. Cullip, Robin E. Fredericksen, Victoria L. Interrante
Ein neues Verfahren zur Kontursegmentierung als Grundlage für einen maßstabs- und bewegungsinvarianten Strukturvergleich bei offenen, gekrümmten Kurven

Intention für den hier dargelegten, neuen Ansatz zur Segmentierung von gekrümmten Kurven war, eine Methode zu finden, mit der es möglich ist, Polygonzüge miteinander zu vergleichen. Ähnlichkeiten sollten auch dann festgestellt werden, wenn die Polygonzüge sich zwar hinsichtlich der Stützstellen erheblich unterscheiden, wenn aber die Polygonzüge als Approximation derselben stetig gekrümmten Kontur entstanden sind. Mit der hier dargelegten Segmentierungsmethode können diese Vorgaben erfüllt werden. Es ist darüber hinaus sogar möglich die Polygonzüge unabhängig von ihrem Maßstab zu vergleichen.Eine Kontur wird in Abschnitte zerlegt, die invariant sind gegenüber Verschiebungen, Drehungen und Größenänderung der Kontur. Diese Abschnitte können aus dem die Kontur approximierenden Polygonzug näherungsweise berechnet werden. Damit können für zwei Polygonzüge, die dieselbe Kontur approximieren, Segmente mit einer Vielzahl von Merkmalen bestimmt werden. An einem Beispiel wird gezeigt, daß mit diesen Segmenten offene, sich unter Umständen nur überlappende Kurven verglichen werden können.

Stephan Frydrychowicz
Matched Median Filter zur Bildsegmentierung

Das Ziel der vorliegenden Arbeit ist die Bestimmung der Fensterform und -größe zweidimensionaler Medianfilter für deren Anwendung in der Bildsegmentierung. Ausgangspunkt ist der Begriff der Ursignale von Medianfiltern (engl, root signals). Ursignale eines gegebenen Medianfilters sind solche Signale, die gegenüber der Anwendung dieses Medianfilters invariant sind. Zunächst wird gezeigt, wie sich für ein gegebenes Medianfilter ein spezielles binäres Ursignal bestimmen läßt, das das kleinste überlebensfähige Objekt des Medianfilters (engl, smallest surviving object, SSO) genannt wird. Danach wird ein Verfahren beschrieben, das für ein beliebiges gegebenes Bild, einen interessierenden Auschnitt davon oder für spezielle Objekte eines Bildes, das flächengrößte Fenster eines Medianfilters generiert, das dieses Bild bzw. diese Objekte in der Menge seiner Ursignale enthält. Dieses Medianfilter wird das Optimalmedianfilter oder engl.matched median filter bezüglich des gegebenen Bildes bzw. der gegebenen Objekte genannt. Schließlich wird anhand einiger Beispiele gezeigt, wie sich das Verfahren zur Bestimmung des Optimalmedianfilters nutzbringend zum Zweck der Bildsegmentierung einsetzen läßt.

Hans-Ullrich Döhler
A Competitive/Cooperative (Artificial Neural) Network Approach to the Extraction of N-th Order Edge Junctions

We describe research toward accurate and reliable general-purpose segmentation of two-dimensional static monocular images of 3-D scenes. The computational architecture composed of competitive/cooperative processes is an extension of the Grossberg/Mingolla scheme which is a partial outcome of Grossberg’s theory for preattentive visual computation. Our experimental software testbed has been designed to incorporate an initial linear filtering cascade consisting of a) firstly applying isotropic center-surround operators and b) secondly applying appropriately scaled directionally sensitive anisotropic operators. The use of different types of orientationally sensitive operators allows for both extraction of different classes of primitives and simple emergent groupings based on spatial proximity. In this article we focus on the extraction of junctions which may occur in any order n (i.e. n is the number of terminating edges) and which’ constituents may have prior unknown oblique orientation.

Heiko Neumann, H. Siegfried Stiehl

Bildfolgen

Plakate

Auf dem Wege zu modellgestütztem Erkennen von bewegten nicht-starren Körpern in Realweltbildfolgen

Die meisten bisherigen Ansätze in der Bildfolgenauswertung machen die Annahme, daß es sich bei den bewegten Objekten in der Szene um starre Körper (z. B. Autos) handelt. Dieser Beitrag beschäftigt sich mit der Erkennung von gehenden Menschen (Fußgängern), d. h. mit nicht-starren Körpern, in Realweltbildfolgen. Beschrieben wird ein Ansatz, bei dem Wissen über die menschliche Körperform und über die Bewegungen des Körpers während des Gehens vorausgesetzt wird. Verwendet werden Daten aus Bewegungsanalysen nach [Murray et al. 64] und [Murray 67].

K. Rohr
Registrierung und Wiedererkennen eines Straßenzuges durch komplexe Bildmerkmale

Die Bildfolge einer PKW-Fahrt durch die Karlsruher Innenstadt wird automatisch durch sehr allgemeine, zusammengesetzte Bildmerkmale beschrieben. Die Bilder einer zweiten Fahrt, die etwa 10 Minuten später stattfand, wird in derselben Weise behandelt und auf Übereinstimmungen mit der ersten Fahrt überprüft. Es zeigt sich, daß in den meisten Fällen an den Stellen eine Maximalzahl der Korrespondenzen gefunden wird, wo auch der menschliche Betrachter eine Bildzuordnung feststellt. Damit ist demonstriert, daß diese Art von Bildmerkmalen automatisch eine sehr spezifische Beschreibung von Bildinhalten liefert.

Georg Zimmermann
Zur Schätzung von Geschwindigkeitsvektorfeldern in Bildfolgen mit einer richtungsabhängigen Glattheitsforderung

In dem vorliegenden Beitrag wird gezeigt, daß für das von Nagel 87 formulierte Minimierungsproblem zur Bestimmung von Geschwindigkeitsvektorfeldern in Bildfolgen eine eindeutige, stetig von den Eingangsdaten abhängige Lösung existiert. Aus den Eigenschaften des Ansatzes folgt, daß die Matrix des linearen Gleichungssystems, welches sich aus der Diskretisierung der Aufgabe mit finiten Elementen ergibt, symmetrisch und positiv definit ist. Darüber hinaus ist sie nur sehr dünn besetzt. Eine Näherungslösung kann deshalb problemlos mit einem beliebigen Abstiegsverfahren berechnet werden. Prinzipiell können diese Aufgaben effizient von parallel arbeitenden Prozessoren ausgeführt werden. Der Einfluß der Richtungsabhängigkeit der Glattheitsforderung (Nagel 87) wird an einer Bildfolge einer realen Szene demonstriert.

C. Schnörr
A comparison of two non-linear motion estimation methods

This paper examines two distinct methods for the estimation of motion from successive images. The first one is the modified Newton-Raphson method, used by Burkhardt, Moll and Diehl [1], [2], [3]. The second one is the method used by Houkes [4], [5]. It is shown, that the results of both methods differ only slightly.

Z. Houkes, M. J. Korsten
Zuordnung von Bewegungsverben zu Trajektorien in Bildfolgen von Straßenverkehrsszenen

Die maschinelle Interpretation von Bildfolgen erfordert häufig eine Beschreibung der erfaßten Vorgänge auf höheren Abstraktionsstufen. Dazu bieten sich natürlichsprachliche Begriffe an, die auch ein menschlicher Beobachter zur Beschreibung benutzen würde, bei Vorgängen also insbesondere Verben. Untersuchungen in diese Richtung für Verkehrsszenen wurden beispielsweise bereits von Neumann & Novak 86 publiziert, allerdings noch für synthetische Bildfolgendaten. Für Bildfolgen von einem Fußballspiel gibt es erste Resultate bei Herzog & Rist 88 sowie Herzoget al. 88. Eine breitere Einführung in die Problematik findet sich z. B. in Nagel 88.Hier soll ein Ansatz zur Ermittlung von Bewegungsverben aus Bildfolgen vorgestellt werden, die Verkehrsgeschehen beschreiben. Fahrzeugtrajektorien, die nach Sung 88 aus Bildfolgen einer Szene am Durlacher-Tor-Platz in Karlsruhe ermittelt worden sind, werden Verben zugeordnet, wobei alle Verben zu berücksichtigen sind, die im Rahmen von Verkehrsgeschehen einfache Vorgänge im Sekundenbereich beschreiben. Der Erkennungsalgorithmus baut auf einem Verbdefinitionsformalismus von Cahn v. Seelen 88 mit entsprechenden Verbdefinitionen auf, die in dieser Untersuchung präzisiert und weiterentwickelt wurden.

N. Heinze, W. Krüger, H.-H. Nagel
Modellgestützte 3D Bewegungs- und Formanalyse unter Verwendung eines Parallelrechners

Kappei und Liedtke /1 + 2/ haben ein Verfahren zur modellgestützten Bewegungs- und Formbestimmung dreidimensionaler Objekte vorgestellt bei dem aus einer Bildfolge eines bewegten Objektes durch Vergleichen der Abbildung des 3D Modells mit den Bildern der Sequenz die Modellanalyse durchgeführt wird.

Hans Busch, Jörg Uthoff

Objektmodelle

Plakate

Zur Automatischen Entwicklung von Objektmodellen durch Imitation

Die Verfügbarkeit von Modellen ist eine wesentliche Voraussetzung zur effizienten Erkennung von Objekten. Wir präsentieren einen neuen Ansatz zur Konstruktion von Objektmodellen durch Interaktion zwischen einem menschlichen Instruktor und einem Lernsystem anhand konkreter Bildbeispiele. Die Auswahl charakteristischer Objekteigenschaften und die Bildung der der Modellstruktur wird dem System überlassen. Die Erprobung des deklarativen Modells erfolgt durch Umsetzung in ein lauffähiges Erkennungsprogramm und wiederholte Anwendung desselben.

W. Burger
Wissensbasiertes Verstehen von Strassenkarten

Am Beispiel des Verstehens von Strassenkarten wird gezeigt, dass sich dieses Spezialgebiet der Dokumen-tenanalyse geradezu ideal zum Kennenlernen der Methoden aus dem Bereich der Künstlichen Intelligenz und somit als Vorstufe zum viel komplexeren Problem des Verstehens von allgemeinen Szenen eignet. Aus den Bilddaten werden Primitive extrahiert, die einerseits möglichst wissensfrei, d.h. möglichst unabhängig vom Inhalt des Dokuments gewonnen werden, andererseits aber doch die Aufgabe des Aufbaus komplexerer Strukturen und die Rückgewinnung des semantischen Gehalts dieser Strukturen möglichst gut unterstützen. Der Aufbau komplexerer Strukturen erfolgt über mehrere Zwischenstufen; dabei wird zunehmend die Verwendung von Bereichswissen zugelassen. Operatoren und Prädikate auf den interessierenden Entitäten können mit einem objekt-orientierten Ansatz sehr elegant formuliert werden. Deren zeitliche und örtliche Anwendung wird mit Hilfe von Bereichswissen gesteuert, welches vorgängig in eine ‘expert system shell’ gebracht wurde.

Markus Ilg, Olaf Kübler
Modellbasierte Objekterkennung aus Entfernungswerten eines Laser-Radar-Systems

Dieser Beitrag beschreibt ein wissensgesteuertes Verfahren mit dem typische Objekte einer Gebäudeumgebung wie Wände, Türen, Stühle usw. erkannt werden. Die ursprüngliche Sensorinforma-tion wird von einem Laser-Radar-System geliefert. Dieses System ist Teil der Sensorik eines autonomen mobilen Roboters, der für den Einsatz innerhalb von Gebäuden konzipiert wurde. Aus den Rohdaten des Sensor-systems wird in einem ersten Abstraktionsschritt ein geometrisches Modell generiert. Die dabei erzeugten Karten bestehen aus mehreren Schichten, die je einen projizierten Aufnahmeschnitt der Umgebung darstellen. Die für die Identifikation wichtigen Daten der potentiellen Objekttypen werden in einer Wissensbasis bereitgestellt.

Thomas Knieriemen, Ulrich Krüll, Ewald von Puttkamer
Generierung von Entscheidungsbäumen aus CAD-Modellen für Erkennungsaufgaben

Diese Arbeit beschreibt Aufbau und vollautomatische Erzeugung von Entscheidungsbäumen aus CAD-Modellen für die stufenweise Erkennung von Objekten durch Zusammensetzung von Flächenklassen. Die erzeugten Bäume für verschiedene Modelle lassen sich einfach kombinieren. Sie gestatten zudem bei ungestörten Bildern ein Erkennungsverfahren mit linearem Zeitaufwand.

Thomas Glauser, Horst Bunke
Automatischer Wissenserwerb für ein Bildanalysesystem auf der Basis des Hierarchischen Strukturcodes

Die Hierarchische Strukturcodierung ist eine kontextunabhängige Transformation für Grauwertbilder. Auf verschiedenen Auflösungsebenen werden Strukturelemente (Kanten-, Linien-, Flächenelemente) detektiert und unter Kontinuitätsprüfung verallgemeinert. Hierbei entsteht eine hierarchische Datenstruktur. Ein wissensbasiertes System zur Analyse komplexer Bildszenen, welches auf dem Hierarchischen Strukturcode (HSC) aufbaut und eine semantische Netzwerkstruktur zur Repräsentation des Wissens verwendet, konnte bereits vorgestellt werden. In diesem Beitrag wird über erste Ergebnisse berichtet, wie der Erwerb von Wissen, der bisher interaktiv erfolgte, durch das Lernen von Strukturbeschreibungen automatisiert werden kann. Hierbei werden zuerst elementare Beschreibungen aus einer Serie von Trainingsbildern bestimmt und generalisiert, die dann durch topologische Untersuchungen zu Substrukturen und Objekten gruppiert werden.

Bärbel Mertsching, Georg Hartmann

Hardware und Systeme

Plakate

Integrierte Software-Werkzeuge zur Erstellung und Benutzung von Bildverarbeitungssystemen

In diesem Artikel werden drei (im praktischen Einsatz stehende) komfortable und robuste Software-Werkzeuge vorgestellt, die, aufeinander abgestimmt, Unterstützung während unterschiedlicher Phasen der Software-Entwicklung in der digitalen Bildverarbeitung geben.

E. Mauer, K. Behrens
PICASYS — Ein Bildanalysesystem zur Identifikation von Leiterplatinen

Das hier vorgestellte modellbasierte Bildanalysesystem zur Identifizierung von Leiterplatinen wurde auf sehr einfacher Hardware und für eine relativ geringe Bildauflösung entwickelt. Der gewählte Modellbereich ist dabei nur beispielhaft; eine Anwendung des Systems in anderen Bereichen sowie eine Erweiterung des Systems zur Qualitätskontrolle ist durchaus möglich.

K.-U. Höffgen, M. Goerke, H. Noltemeier
Anwendung eines schnellen,morphologischen Bildverarbeitungsrechners am Beispiel der Metaphasensuche

Als Metaphase bezeichnet man einen durch geeignete Präparation fixierten Zustand einer biologischen Zelle. Zur automatischen Suche dieser Metaphasen, die für eine Routineanwendung geeignet ist. wird eine schnelle Bildverarbeitungsrechnerarchitektur vorgestellt. Mit Methoden der mathematischen Morphologie für Grau- und Binärbilder und entsprechenden Hardwareprozessoren gelingt eine automatische Metaphasensuche, die den Forderungen des Anwenders nach Geschwindigkeit und Qualität der gefundenen Metaphasen bei vertretbarem Hardwareaufwand genügt.

J. Hagelberg-Wölfing, B. Schleifenbaum
Echtzeitspurerkennung mit Einem Systolischen Arrayprozessor

In vielen Detektoren der Hochenergiephysik werden Bilder von Teilchenspuren (Abb. 1) generiert. Um den enormen Datenstrom zu reduzieren, müssen in diesen Bildern bestimmte Spurtypen in Echtzeit erkannt werden. Die interessanten Spuren entstehen in der Mitte des Detektors und verlaufen kreisförmig nach außen. Zusätzlich treten statistisch Rauschpunkte auf. Bei der OPAL-Kammer [1] beträgt die Aufnahmerate 1 Bild/25 µs. Mit dem hier beschriebenen systolischen Arrayprozessor können die Krümmungsradien und zugehörigen Startwinkel beliebig vieler gut definierter Spuren innerhalb dieser Zeit ausgelesen werden.

F. Klefenz, R. Männer
Ein Expertensystem zur frame-basierten Steuerung der Low- und Medium-Level-Bildverarbeitung

Diese Arbeit beschreibt ein Expertensystem zur wissensbasierten Steuerung der Low- und Medium-Level-Bildverarbeitung, mit dessen Hilfe eine schnelle Anpassung an Problemstellungen in der Bildverarbeitung ermöglicht werden soll. Weiterhin soll dem Laien eine Möglichkeit geboten werden, Bildverarbeitungssysteme einfacher zu bedienen. Das Wissen über die Bildverarbeitungsoperationen wird mit Hilfe von Frames strukturiert, die eine objektorientierte Sicht der Wissensbasis erlauben. Ein auf der Frame-Struktur basierender Suchalgorithmus unterstützt den Zugriff auf die Wissensbasis. Weiterhin existiert eine Regelbasis, die Wissen über die Anwendbarkeit der Bildverarbeitungsoperationen und die Auswirkungen bei Parameteränderung darstellt. Der Regelinterpreter wird durch den Procedural- Attachment-Mechanismus in dem jeweiligen Operationsframe bzw. Parameterframe angestoßen. Diese Arbeit soll einen groben Überblick über den Aufbau der Wissensbasis und den Zugriffsmechanismus auf das Wissen vermitteln.

Gudrun Polensky, Tilo Messer
Digitale Kamera mit CCD-Flächensensor und programmierbarer Auflösung bis zu 2994 × 2320 Bildpunkten pro Farbkanal

Unter Ausnutzung eines am Lehrstuhl für Nachrichtentechnik der TU München entwickelten neuartigen Prinzips, Microscanning mit zweidimensionalen Piezo-controlled Aperture Displacement (PAD), wurde die derzeit höchstauflösende Digital-Farbkamera mit Flächensensor entworfen und aufgebaut. Hohe geometrische Genauigkeit, Farbtreue, Empfindlichkeit und die Elimination von Farbkonvergenzfehlern werden durch die Verwendung nur eines, auf kleine Detektorflächen hin optimierten Charge Coupled Device (CCD)-Flächensensors mit Farbstreifenmaske erzielt, ohne daß die Notwendigkeit für einen mechanischen Verschluß oder einen Farbfilter-Revolver besteht. Zeitliche und örtliche Auflösung sind programmierbar und in weiten Grenzen gegeneinander austauschbar, ihr Produkt bildet eine Konstante. Die höchste zeitliche Auflösung ist Fernsehechtzeit (50Hz Halbbildrate), die höchste örtliche Auflösung ist 2994(H) × 2320 (V) × 3Farbkänale (in < 8sec). Damit ist es erstmals möglich, das Bild natürlicher, ruhender Vorlagen direkt, ohne photographisches Zwischenmedium, mit einem Rechner in der Qualität eines 35mm-Farbdiapositivs aufzunehmen. Nahezu „quadratische Pixel“ sind ebenso wie hexagonale Abtastraster programmierbar, wobei durch Bildpunkt-synchrone Analog/Digital-Wandlung eine stabile Bildgeometrie erzielt wird.

Reimar Lenz
A Fast Generator for the Hierarchical Structure Code With Concurrent Implementation Techniques

The sequential generator for the Hierarchical Structure Code (HSC) developed by G. Hartmann can be parallelized on a processor farm with an improved run time of a few seconds. To achieve a further improvement we suggest exploitation of its inherently asynchronous, parallel (i.e. concurrent) structure resulting in a concurrent OCCAM-HSC-generator.

Lutz Priese, Volker Rehrmann, Ursula Schwolle
SINAI
Ein objektorientiertes Bildverarbeitungssystem

In diesem Beitrag wird das objektorientierte Bildverarbeitungssystem SINAI (Structured Interactive Analysis of Images) vorgestellt und ein Ausblick auf seine Weiterentwicklung in Richtung eines wissensbasierten Analysesystems gegeben.

Brigitte Wirtz, Christoph Maggioni
Effiziente Verfahrensentwicklung für die Bildauswertung durch objektorientierten, adaptierbaren Dialog und videoschnelle Verarbeitung im Funktionsverbund KIBAS - VISTA

Das Bildauswertesystem KIBAS (konfigurierbares interaktives Bildauswertesystem) verfügt über eine grafische, objektorientierte Dialogkomponente. Bildschirmeinteilung und Systemverhalten sind vom Benutzer über ein Profil einstellbar. Die Verwendung einer vertrauten Begriffswelt und der durchgängige Gebrauch von leichtverständlichen Interaktionskonzepten ermöglichen eine einfache, komfortable Benutzung des Systems. Das System ist als Experimentalsystem zur Untersu-chung des Benutzerverhaltens und der wechselnden Benutzeranforderungen über einen längeren Benutzungszeitraum hinweg konzipiert. Die Wahl unterschiedlicher Eingabemedien und -formen sowie die Veränderung der Anforderungen an die Antwortgestaltung des Systems sind dabei die Untersuchungsthemen. KIBAS verwendet einen UNIX-Arbeitsplatzrechner (Apollo); die Bildverarbeitungsalgorithmen stehen in Form von PASCAL-Programmen zur Verfügung. VISTA (Visuelles Interpretations-System für technische Anwendungen) ist ein spezieller Bildauswertungsrechner, der zur Lösung von Aufgaben aus den Bereichen Güteprüfung, Objekterkennung, Positionsbestimmung, Prozeßüberwachung und Prozeßsteuerung entwickelt wurde. VISTA ist ein busorientiertes Multiprozessorsystem. Es besteht aus vier Hauptkomponenten: der Video-Ein-/Ausgabe-Einheit für den Bildeinzug und die Bildwiedergabe, der ikonischen Verarbeitungsstufe zur Vorverarbeitung und Merkmalextraktion, der symbolorientierten Verarbeitungsstufe zur Umwandlung der Merkmale in Aussagen sowie der Steuerung zur Koordination aller ablaufenden Vorgänge. Die wichtigsten Verbindungen zwischen den Baugruppen des Systems werden durch den VMEbus und den Videobus geschaffen. Die Bildverarbeitungsalgorithmen wurden in Form spezieller Schaltungen reali-siert. VISTA ist ein modulares System und deshalb ausbau- und anpassungsfähig an Aufgaben wach-senden Schwierigkeitsgrades. Der Funktionsverbund KIBAS - VISTA vereint die komfortable anpas-sungsfähige Benutzungsoberfläche des KIBAS mit der videoschnellen Bildverarbeitung des VISTA. Dieser Beitrag beschreibt den Funktionsverbund KIBAS - VISTA und stellt die Vorteile einer damit möglichen Verfahrensentwicklung für die Bildauswertung dar.

Rainer Schönbein
Ein paralleles Transputersystem zur digitalen Bildverarbeitung mit schneller Pipelinekopplung

Dieser Beitrag stellt ein modulares, paralleles Bildverarbeitungssystem vor. Mit dem Einsatz von Transputern besitzt das System eine durch Links aufgebaute Verbindungsstruktur, die sich topologisch an unterschiedliche Algorithmen anpassen läßt. Es wird ein schneller Pipelinebus vorgestellt, der die Module des Systems zusätzlich verbindet und ein effizientes Laden und Entladen parallel angeordneter Transputer ermöglicht. Anhand zweier Beispiele wird die Algorithmenimplementierung und der jeweils angepaßte Lade- und Entladevorgang erläutert.

B. Lang
Ein Bildsegmentierer für die echtzeitnahe Verarbeitung

Die echtzeitnahe Segmentation interessierender Objekte ist eine grundlegende Aufgabe der Bildverarbeitung. Es wird ein regionenbasiertes, zeilenorientiertes Segmentationsverfahren [1] [2] [3] vorgestellt, dessen Basis eine Binarisierung des Bildes mit einer Vielzahl von Gr au wert schwellen ist. Die segmentierten Objekte werden ikonisch/symbolisch mit Hilfe von Merkmalen beschrieben. Durch einen mehrstufigen Zuordnungsprozeß werden die interessierenden Objekte ausgewählt und ähnliche Objektrepräsentanten aus verschiedenen Grauwertint er Valien zusammengefaßt. Der Zuordnungsprozeß läßt sich an das Datenmaterial adaptieren und wird über Regelwerke gesteuert, deren Regeln sich durch eine einfache Sprache formulieren lassen.Da das Verfahren durch seine Komplexität erheblichen Verarbeitungsaufwand erfordert, wurde es für den echtzeitnahen Einsatz parallelisiert und als spezielle Hardware realisiert.

C. Anderer, U. Thönnessen, M. F. Carlsohn, A. Klonz

Medizinische Anwendungen II

Medical Imaging and Computer Vision: An integrated approach for diagnosis and planning

Recent advances in magnetic resonance imaging (MRI) show substantial improvement of image quality and acquisition speed. The acquisition of volume and/or multiecho data, flow measurements,and greater sensitivity offer new possibilities for diagnosis, therapy and operation planning.In order to parallel the rapid progress in data acquisition, it is very important to provide efficient analysis tools which are appropriate for the complex multiple information inherent in the data. Computer Vision methods specifically adapted to the multidimensional and multispectral MR data can crucially improve the analysis by extracting, analyzing and visualizing the structural and functional properties of biological tissues. We have developed segmentation algorithms, that include edge-preserving smoothing and extraction of homogeneous regions. A multistage analysis scheme is proposed which performs the 3D segmentation of the brain (gray and white matter) and the ventricular system in multispectral MR volume data with only minimal user interaction. The quality of the segmentation demonstrates that the integration of MR-acquisition, multidimensional, and multispectral segmentation and 3D visualization represents a powerful new tool for medical diagnosis and research. The information from a large number of slices and multiple measurements is combined into representations which clarify the perception of 3D relationships and can highlight the locations and types of structural abnormalities. Based on a reliable segmentation, a further quantitative analysis of anatomical structures is accessible.The segmentation of the human brain is illustrated by means of slice representations and 3D reconstructions of intermediate and final results. A discussion of the medical relevance of the proposed scheme to study the central nervous system shows its high potential for diagnosis and preoperative planning.

Guido Gerig, Walter Kuoni, Ron Kikinis, Olaf Kübler
3D-Visualisierung von schwer segmentierbaren tomographischen Volumendaten

Bei der 3D-Darstellung von Volumendaten muß entschieden werden, welche im Volumen enthaltenden Oberflächen visualisiert werden sollen. Oft ist jedoch eine Entscheidung, welche Volumenelemente eine Oberfläche bilden, nicht möglich. Bei der Darstellung von Knochen aus CT Daten liefert die binäre Segmentation zusammen mit der Grauwert-Gradienten-Schattierung gute Ergebnisse, jedoch treten hier Segmentationsprobleme bei dünnen Knochen auf. Generell schwierig ist die Segmentation bei Kernspintomogrammen. Man versucht deshalb, eine binäre Segmentation zu vermeiden, indem man Übergangsbereiche zwischen den Objekten definiert, diesen gewisse Opazitäten zuordnet und die Objekte semitransparent darstellt. Es zeigt sich dabei, daß im CT die Fehler z.B. bei dünnen Knochen durch die semitransparente Darstellung nicht behoben werden. Im MR können mit dieser Methode jedoch gute Ergebnisse erzielt werden, wenn eine binäre Segmentation keine richtigen Oberflächen findet. Reicht die Größe der Objekte für eine Schattierung nicht mehr aus, so kann in speziellen Fällen, wie z.B. bei Gefäßen, das Maximum der Grauwerte visualisiert werden.

G. Wiebecke, M. Bomans, U. Tiede, K. H. Höhne
Ein Mehrgitterverfahren zur Korrespondenzfindung bei der 3D-Rekonstruktion von Elektronenmikroskop-Kippserien

Im Folgenden wird eine Mehrgittermethode zur 3D-Rekonstruktion von Transmissionselektronenmikroskop-Kippserien vorgestellt. Das Verfahren dient zur Rekonstruktion von Kippserien, bei denen nur eine begrenzte Anzahl an Projektionen aus bekannten Winkeln vorhanden sind. Das Wesentliche des Verfahrens ist, daß die Verschiebungsparameter aus den Bilddaten selbst bestimmt werden, und somit keine zusätzlichen Goldpartikel notwendig sind. Dabei werden sowohl die Translations-, Rotations- und Skalierungsparameter bestimmt.Im Zentrum des Verfahrens steht eine Kontrollstrategie von grob nach fein. Sie basiert auf der Beobachtung, daß durch ein entsprechendes Zuordnungsverfahren die Verschiebungsparameter auf einer groben Ebene gut bestimmt werden können. Diese Parameter dienen dazu, auf der nächst feineren Ebene eine bessere Rekonstruktion zu erzeugen, die wiederum Ausgang für eine verfeinerte Alignmentbestimmung ist. Dies wird bis zur feinsten Auflösungsebene wiederholt.

Joachim Dengler, Michael Cop
Morphologische Größenverteilungen zur Strukturanalyse medizinischer Bilder

Die Analyse vieler medizinischer Bilder geschieht bisher vorwiegend visuell bzw. manuell. Daraus resultierende Beschreibungen sind meist qualitativer Art und somit nicht reproduzierbar. Erwünscht ist eine verständliche, quantitative und reproduzierbare Beschreibung der interessierenden Bildstrukturen, um Bilder oder Objekte in den Bildern sowohl mit dem „Normalfall“, als auch untereinander vergleichen zu können. Das Problem zahlreicher quantitativer Kenngrößen der Bildanalyse ist, daß sie für den Arzt schwer interpretierbar sind. Ein Merkmal, das die genannten Voraussetzungen erfüllt, ist die Größe einer Struktur. Sie ist intuitiv wahrnehmbar, jedem verständlich und auch quantitativer Art.

Sabine Behrens, Joachim Dengler

Grundlagen, Objekterkennung

Plakate

Visiontool
Ein System zur Erkennung von Werkstücken

Visiontool erlaubt nicht nur, Werkstücke zu erkennen, sondern macht den Erkennungsvorgang einsehbar: die verwendeten Merkmale, ihre Uebereinstimmung, die daraus gebildeten Hypothesen sowie die Erkennungsgüte sind schrittweise verfolgbar.

Martin Eichenberger
Erkennung von chinesischer Druckschrift anhand der „Schwarzsprungverteilung in angepaßten Teilbildern“: Verfahrensbeschreibung und Merkmalsanalyse

„Schwarzsprungverteilung in angepaßten Teilbildern“ ist ein vom stroke density feature abgeleitetes neues Merkmalsextraktionsverfahren zur Erkennung von chinesischen und alphabetischen Druckschriften. Die Klassifikation erfolgt dynamisch anhand der city-block-Distanz. In einem Versuch über 19.241 Zeichenvorkommen aus 1544 Klassen (Gesamtzeichensatz 3755 Klassen) konnte eine Erkennungsrate von 98,21% erreicht werden. Weiter wird ein neues Verfahren zur Effizienzmessung von mehrdimensionalen Merkmalen und somit zur Merkmalsanalyse vorgestellt.

Jun Guo, Irmfried Hartmann, Richard Suchenwirth, Zhang Zheng
Zur Erkennung von Bildstrukturen durch Analyse der Richtungen des Grauwertgradienten

In der vorliegenden Arbeit wird ein Verfahren zur Detektion von Bildbereichen mit örtlich sich langsam ändernden Grauwerten (Schatten,Schattierung) beschrieben sowie ein Verfahren zum Wiederauffinden gelernter Bildstrukturen (z.B. Fahrzeuge,Texturen) durch Auswertung eindimensionaler Histogramme der Richtungen des Grauwertgradienten (Winkelauflösung: 2 Grad). Das Erkennungsverfahren basiert auf einer Kreuzkorrelation zweier Winkelhistogramme. Nach jeder Korrelation werden die Winkelwerte des (gelernten) Referenzhistogramms um 1 oder einen beliebigen anderen Wert erhöht (modulo 360) und mit der verschobenen Funktion erneut korreliert. Bei dieser Vorgehensweise werden mögliche Drehungen des Vergleichsgegen das Referenzmuster quantitativ erfaßt. Invarianz gegenüber Kontrastumkehrung ergibt sich aus der Tatsache, daß hierbei zu jedem Winkelwert der ursprünglichen Verteilung 180 Grad addiert wird. Die Größeninvarianz ergibt sich durch Normierung auf die Gesamtzahl der Bildpunkte in dem ausgewerteten Bildfenster. Invarianz gegenüber der Addition oder Multiplikation der Bildfunktion mit einer Konstanten ergibt sich aus der Vorschrift zur Berechnung des Gradientenwinkels. Die bisherigen Anwendungen auf Bildfolgen, Luftbilder und Texturmuster zeigen, daß gelernte Muster trotz erheblicher Größenänderungen in jeder Drehlage zuverlässig lokalisiert werden können.

Axel Korn
Entropie-Varianz-Analyse, ein Verfahren zur Bewertung von Merkmalsdichteverteilungen

Anhand modellierter Wahrscheinlichkeitsdichtefunktionen wird der Funktionalzusammenhang zwischen Varianz und Entropie diskutiert. Dies führt zur Definition eines informationstheoretischen Ähnlichkeitsmaßes HV, das die Abweichungen von einer Normalverteilung monoton beschreibt und sehr einfach zu berechnen ist. Am Beispiel eines statistischen Klassifikationsverfahrens mit linearem Polynomansatz wird der Einsatz des HV-Maßes bei der Selektion von Merkmalskomponenten demonstriert.

G. Sträßle, D. Feßmann
A Simplex Design of Linear Hyperplane Decision Networks

A new type of two-layer aritficial neural network is presented. In contrast to its conventional counterpart, the new network is capable of forming any desired decision region in the input space. The new network consists of a conventional input (hidden) layer and an output layer that is, in essence, a Boolean function of the hidden layer output. Each node of the hidden layer forms a decision hyperplane and the set of hyperplanes constituted by the hidden layers perform a partition of the input space into a number of cells. These cells can be labeled according to their location (binary code) relative to all hyperplanes. The sole function of the output layer is then to group all these cells together appropriately, to form an arbitrary decision region in the input space. In conventional approaches, this is accomplished by a linear combination of the binary decisions (outputs) of the nodes of the hidden layer. This traditional approach is very limited concerning the possible shape of the decision region. A much more natural approach is to form the decision region as a Boolean function of the biniary hidden layer “word” which has as many digits as there are nodes in the hidden layer. The training procedure of the new network can be split in two completely decoupled phases. First, the construction of the decision hyperplanes formed by the hidden layer can be posed as a linear programming problem which can be solved using the Simplex algorithm. Moreover, a fast algorithm for approximate solution of this linear programming problem based on an elliptic approximation of the Simplex can be devised. The second step in the design of the network is the appropriate construction of the Boolean function of the output layer. The key trick here is the adequate incorporation of don’t cares in the Boolean function so that the decision regions formed by the output layer cover the entire input space but are still not overlapping.

Peter Strobach
Object Location Based on Uncertain Models

The paper describes a concept for object location, when not only image features but also the model description is uncertain. It contains a method for probabilistic clustering, robust estimation and a measure for evaluating both, inaccurate and missing image features. The location of topographic control points in digitized aerial images demonstrates the feasibility of the procedure and the usefulness of the evaluation criteria.

Monika Sester, Wolfgang Förstner
Object Recognition by Selective Focusing Using a Moore-Penrose Associative Memory

This paper describes a rotation-, scale-, and distortion-invariant method of 2D object recognition based on the Moore-Penrose Distributed Associative Memory (DAM). Invariance to rotation and scale is achieved using conformal mappings. For distortion invariance the memory is adpated to the key stimulus before recall which leads to improved accuracy for both recall and classification. Based on known relationships between DAMs and regression analysis, a method is proposed to improve the selectivity of the association weights in an iterative way by discarding insignificant response vectors. Such selectivity allows the system to focus on the significant associations and to reduce cross-talk effects. The same formalism which allows to compute the significance of the association weights also provides for a reject option. Experimental results prove the feasibility and benefits of the new recognition method.

Wolfgang Pölzleitner, Harry Wechsler
Ein ableitungsorientierter Ansatz zur Detektion von Kanten in multidimensionalen Bildfunktionen

Bis heute wurden zahlreiche Verfahren zur Kantendetektion in Grauwertbildern entwickelt. Hingegen finden sich nur sehr wenige Ansätze zur Detektion von Diskontinuitäten in multidimensionalen Bildfunktionen (z.B. Farbbildern). Die meisten dieser Ansätze stammen aus den siebziger Jahren und können dem heutigen Stand der Kunst nicht entsprechen. Erst in den letzten Jahren finden sich Hinweise auf einen fundierten ableitungsorientierten Ansatz zur Detektion von Farbkanten [Di Zenzo 86, Novak + Shafer 87].

Christian Drewniok, Leonie Dreschler-Fischer
Erkennung handgeschriebener Ziffern mit Hilfe neuronaler Netze

Vorgestellt wird ein System zur Erkennung handgeschriebener Ziffern, das für die Klassifikation ein hierarchisches System von Merkmalen, wie Linienenden, Verzweigungspunkte, Geradenelemente und Bogenelemente verwendet. Für die Merkmalextraktion und Klassifika­tion werden Methoden neuronaler Netze berücksichtigt, so wird z.B. für die Klassifikation ein adaptives System — eine selbstorganisierende Merkmalkarte — eingesetzt.

M. Schwarz, B. J. Hosticka, P. Richert
Automatisches Erlernen struktureller Modelle für ein wissensbasiertes Werkstückerkennungssystem

Der Anwendungsbereich industrieller Handhabungssysteme kann deutlich erweitert werden, wenn ein solches System mit einem Sensor ausgerüstet ist, mit dessen Hilfe vorliegende Werkstücke erkannt und ihre räumliche Lagen bestimmt werden. Für die Werkstückerkennung und Lagebestimmung sind wissensbasierte Erkennungssysteme geeignet, in denen das Wissen über die Werkstücke und über Störeinflüsse in Form eines Modelles explizit verfügbar sind. Bei einem strukturellen Modell wird das Objekt in einfache Bestandteile bzw. Beschreibungselemente zerlegt und durch Angabe von Relationen zwischen den Bestandteilen beschrieben /Chin & Dyer 86/, /Wallace 88/. Durch diese Zerlegung des Objektes in einzelne Bestandteile wird es möglich, ein Objekt aufgrund nur weniger sichtbarer Bestandteile zu erkennen, wie es bei überlappenden Werkstücken erforderlich ist.

W. Hättich, H. Wandres, P.-B. Krause

Bewegungs- und Stereobildverarbeitung

Plakate

Solids velocity estimation in two-phase turbulent flow
as in circulating fluidized bed

The purpose of this paper is to report about some specific problems arising in estimation of solids velocities in two-phase flow ( as, for example, in a circulating fluidized bed [1] ).

A. Borys
From optical flow of lines to 3D motion and structure

We establish the motion equations for rigidly moving 3D lines and the structure equations that relate the optical flow of a line to its kinematic screw and 3D representation. We also show that if the time derivative of the optical flow is available, then five simple motion equations can be derived that relate the kinematic screw, the optical flow, and their time derivatives.

Olivier Faugeras, Nourredine Deriche, Nassir Navab

Spracherkennung

Plakate

Kontext-Disambiguierung in natürlichsprachlichen Anfragen an relationale Datenbanken

In vielen natürlichsprachlichen Anfragesystemen werden lexikalische Mehrdeutigkeiten durch akzeptanzhemmende Klärungsdialoge behandelt. Die Arbeit beschreibt ein Verfahren zur Auflösung solcher Mehrdeutigkeiten mit Hilfe des Satzkontextes. Das zugrundeliegende Datenbankschema, das in einem Distanzgraphen kodiert ist, dient dabei als Wissensquelle. Das vorgestellte Disambiguierungsverfahren bildet eine von mehreren Analysestufen der transportablen, natürlichsprachlichen Datenbank-Schnittstelle NATHAN/4/.

Jörg Noack
Auswertung der Fokusintonation im gesprochenen Dialog

Fokuserkennung und Fokusinterpretation bilden einen wichtigen Grundbaustein sprachlicher Kommunikation. Nur ein sprachverarbeitendes System, das in der Lage ist, Intonation zu erkennen, zu behandeln und selbst zu erzeugen, wird in Zukunft die benötigte Akzeptanz beim Benutzer finden. Im Rahmen des Schwerpunktprogramms „Modelle und Strukturanalyse bei der Auswertung von Bild- und Sprachsignalen“ der Deutschen Forschungsgesellschaft wird am Fraunhofer Institut für Arbeitswirtschaft und Organisation ein Ansatz zur Auswertung der Fokusintonation im gesprochenen Dialog realisiert, der sich am Prinzip des Dialogtableau-Kalküls orientiert.

R. Bannert, J. Ph. Hoepelman, J. Machate
Der IBM Spracherkennungsprototyp TANGORA
Anpassung an die deutsche Sprache

TANGORA ist ein sprecherabhängiges Spracherkennungssystem für Satzerkennung bei isoliert gesprochenen Wörtern. Es ist ausgelegt für die Erkennung eines großen Vokabulars von etwa 20000 Wortformen in Echtzeit. Das System arbeitet mit rein statistischen Methoden ohne Anwendung von linguistischem Wissen. Die Erkennungsrate liegt bei der 20k Version für Englisch bei 95 bis 98%. Die deutsche Version kennt zur Zeit etwa 1300 Worte, das Vokabular wird im Laufe des Jahres auf etwa 10000 Worte erweitert.

G. Walch, K. Mohr, U. Bandara, J. Kempf, E. Keppel, K. Wothke
Sprecherunabhängige Spracherkennung mit neuronalen Netzen

Die Sprachkodierung mit linearer Prädiktionskodierung unter Verwendung partiell korrelierter Koeffizienten ermöglicht es, ein prinzipiell sprecherunabhängiges System zur Spracherkennung zu entwickeln. In diesem Beitrag werden der Aufbau eines derartigen Spracherkennungssystems und die experimentellen Ergebnisse vorgestellt. Das Problem der nichtlinearen zeitlichen Verzerrungen von Sprachsignalen wurde mit neuronalen Netzen gelöst. Aufbauend auf der Lautschrift erfolgt die Merkmalfindung und Klassifizierung der Sprache mit selbstorganisierenden Merkmalkarten. Die Leistungsfähigkeit des Systems wird an Hand der Erkennung von gesprochenen Ziffern für verschiedene Sprecher demonstriert.

Peter Richert, Bedrich Hosticka, Markus Schwarz

Standardisierungen

Zum Stand der Normung in der Bildverarbeitung — Programmierschnittstelle und Bildaustauschformate

„Die Normung in der Bundesrepublik Deutschland ist eine Aufgabe der Selbstverwaltung der Wirtschaft. Zentralorgan der Normung ist das DIN Deutsches Institut für Normung e.V. Die Arbeitsergebnisse des DIN sind die DIN-Normen, die in ihrer Gesamtheit das Deutsche Normenwerk bildern.“ ([NORM], S.48).

Detlef Krömker, Georg Rainer Hofmann
Backmatter
Metadata
Title
Mustererkennung 1989
Editors
Hans Burkhardt
Karl Heinz Höhne
Bernd Neumann
Copyright Year
1989
Publisher
Springer Berlin Heidelberg
Electronic ISBN
978-3-642-75102-8
Print ISBN
978-3-540-51748-1
DOI
https://doi.org/10.1007/978-3-642-75102-8