Skip to main content
main-content

Inhaltsverzeichnis

Frontmatter

Eingeladene Vorträge

Frontmatter

Maschinelles Sehen zur Steuerung autonomer mobiler Systeme

Die Erforschung und Realisierung „sehender“Maschinen und „intelligenter“Roboter bildet seit 1977 einen Arbeitsschwerpunkt des Instituts für Meßtechnik. Ziel ist zum einen ein grundlegendes Verständnis des Sehens, der Autonomie und der Intelligenz von technischen Systemen, und zum anderen die Realisierung intelligenter sehender Roboter. In diesem Beitrag beschreiben wir drei unserer autonomen mobilen Systeme, die das maschinelle Sehen als Hauptsensormodalität einsetzen, um sich in ihrer jeweiligen Umgebung mit angemessener Geschwindigkeit fortbewegen und selbständig vielfältige Aufgaben erfüllen zu können. Mit ihrer Hilfe haben wir u.a. die Problembereiche der autonomen Mobilität im öffentlichen Straßenverkehr, die Navigation mobiler Roboter in bekannten und unbekannten Umgebungen, das maschinelle Lernen und die Steuerung von Robotern ohne Kenntnis quantitativer Modelle untersucht. Im folgenden geben wir einen Überblick über die Konzeption und Realisierung dieser autonomen Systeme und stellen einige mit ihnen gewonnene Erkenntnisse vor.

Volker Graefe, Rainer Bischoff

Image Processing for Driver Assistance

Systems for automated image analysis are useful for a variety of tasks and their importance is still growing due to technological advances and an increase of social acceptance. Especially in the field of driver assistance systems the progress in science has reached a level of high performance. Fully or partly autonomously guided vehicles, particularly for road-based traffic, pose high demands on the development of reliable algorithms due to the conditions imposed by natural environments. At the Institut für Neuroinformatik methods for analyzing driving relevant scenes by computer vision are developed in cooperation with several partners from the automobile industry. We introduce a system which extracts the important information from an image taken by a CCD camera installed at the rear view mirror in a car. The approach consists of a sequential and a parallel sensor and information processing. Three main tasks namely the initial segmentation (object detection), the object tracking and the object classification are realized by integration in the sequential branch and by fusion in the parallel branch. The main gain of this approach is given by the integrative coupling of different algorithms providing partly redundant information.

Werner v. Seelen, Uwe Handmann, Thomas Kalinke, Christos Tzomakas, Martin Werner

Image Analysis for Micro- and Macrostructure Measurement

Interferometric metrology, confocal microscopy, triangulation and Moiré techniques are well introduced. Furthermore, the detection of defects can be a powerful tool. Computer based analysis is essential as well as new technology and components. The market for shape, defects, deviation or position measurement is continuously growing. High frame rate and high flexibility are needed. Matrix liquid crystal displays (LCD), both electrically or optically addressed are able to display gray values. Digital micromirror devices (DMD) are a basis to lead to a couple of new applications. LCDs enable a instantaneous adjustment of the projection brightness. Both confocal microscopy and white light interferometry are image plane localisating methods. These are of advantage for high resolution microscopic and macroscopic measurements and to determine the shape of rough technical surfaces. Optically addressed crystals enable new possibilities in analog real time image processing. They are able to detect defects in periodic media and microstructures just by using polarization properties. This is of major interest in microelectronic manufacturing today and even more in the near future.

H. J. Tiziani

Ein hochsprachenprogrammierbares System zur Vollbildauswertung im Videotakt; Anwendungen zur Interpretation monokularer, semi-strukturierter Bildfolgen bei natürlicher Beleuchtung und schnell bewegter Kamera

Im vorliegenden Beitrag wird ein hochsprachenprogrammierbares System zur schritthaltenden Vollbild-Interpretation natürlich beleuchteter Szenenfolgen im Videotakt vorgestellt. Im einzelnen werden folgende Teilmodule und Subsysteme beschrieben: eine hochdynamische, pixellokal autoadaptive CMOS-Kamera mit ca. 120 dB Helligkeitsdynamik (20Bits/Pixel)ein hochsprachenprogrammierbarer Systolic Array Prozessor (für die pixelbezogenen Verarbeitungsmodule) im PCI-Kartenformat, samt optimierendem Compiler, Simulator und EmulatorSystemprozeßgerüste unter Linux auf den für die Echtzeit-Anwendungen eingesetzten Hostrechnern (z.B. DEC/Alpha oder Intel/ Pentium)eine prototypische Anwendung zur bildverarbeitungsbasierten Eigenbewegungsbeobachtung (Translationsrichtung, Eotationsraten)eine prototypische, automotive Anwendung zur schritthalt enden Detektion und Kartierung des Straßen- und Spurverlaufs unter partieller monokularer 3D-Rekonstruktion, sowieprototypische Anwendungen zur Klassifikation verkehrsrelevanter Hindernisse (Verkehrsteilnehmer)

Paul Levi, Michael Schanz, Rolf-Jürgen Ahlers, Franz May

Grundlugen und Algorithmen

Frontmatter

Junction Characterization Using Polar Pyramid

In this paper we present a new approach in characterizing gray-value junctions. Due to the multiple intrinsic orientations present in junctions the response of a filter is needed at every orientation. As a rotation of the filter would considerably increase the computational burden alternative techniques like filter steerability have been proposed. Steerability relies in interpolating the response at an arbitrary orientation from the responses of some basis filters. Unfortunately, current steerability approaches suffer from the consequences of the uncertainty principle: In order to achieve high selectivity in orientation they need a huge number of basis filters increasing, thus, the computational complexity.The new approach presented here achieves a higher orientational selectivity with a lower complexity. We consider the local polar map of the neighborhood of a junction where the new coordinates are the radius and the angle. Finding the gray-value transitions of a junction can be interpreted as ID edge detection. Hence, the orientational selectivity problem can be attacked by applying a pyramidal scheme. It is well known that it is always possible to reconstruct a signal using the sampling kernel as an interpolation function. Therefore, our approach can also steer the response of a Gaussian derivative to every orientation. The total algorithmic complexity encompasses the small support 2D-filtering for polar mapping and radial smoothing plus an ID-differentiation.

Weichuan Yu, Kostas Daniilidis, Gerald Sommer

Probabilistic Hypothesis Verification

We describe a method for hypothesis verification for view-based recognition using Bayes rule. For feature positions we assume conditional densities which are based on the observation that deviations in the relative position of feature points increase with the distance of feature points. We advocate the use of curve segments with constant sign of curvature instead of circular or elliptical arc segments. Our approach is validated with real and artificial data of mostly curved objects.

Dietrich Büsching

Discrete Approach to Curve Evolution

We propose a simple approach to evolution of digital planar curves that is specially designed to fit discrete nature of curves in digital images. The obtained curve evolution method by digital linearization has many advantages in comparison to curve evolutions in scale-space theories that are usually guided by diffusion equations. We will show that it leads to simplification of shape complexity, analog to evolutions guided by diffusion equations, but with no blurring (i.e., shape rounding) effects and no dislocation of relevant features. Moreover, in our approach the problem to determine the size of discrete steps for numerical implementations does not occur, since our evolution method leads in a natural way to a finite number of discrete evolution steps which are just the iterations of a basic procedure of digital linearization.

Longin Jan Latecki, Rolf Lakämper

Fast Segmentation Methods Based on Partial Differential Equations and the Watershed Transformation

Segmentation algorithms are presented which combine regularization by nonlinear partial differential equations (PDEs) with a watershed transformation with region merging. We develop efficient algorithms for two well-founded PDE methods. They use an additive operator splitting (AOS) leading to recursive and separable filters. Further speed-up can be obtained by embedding AOS schemes into a pyramid framework. Examples demonstrate that the preprocessing by these PDE techniques eases and stabilizes the segmentation. The typical CPU time for segmenting a 2562 image on a workstation is less than 2 seconds.

Joachim Weickert

Fusion von Basisalgorithmen zur Segmentierung von Straßenverkehrsszenen

Derzeitige Projekte am Institut für Neuroinformatik in Bochum beschäftigen sich mit der Analyse von Straßenverkehrsszenen mittels Computer Vision [12]. Dies impliziert, wegen der durch die natürliche Umwelt aufgestellten Randbedingungen, hohe Anforderungen an die zu entwickelnden Algorithmen. Im speziellen wird versucht, Verkehrsteilnehmer aus Videobildern zu extrahieren und die so gewonnenen Objekthypothesen weiter zu attributieren (z.B. Objektklasse, Abstand, Geschwindigkeit, Gefahrenpotential hinsichtlich der beabsichtigten Eigentrajektorie etc.), um im Hinblick auf den Einsatz in Assistenzsystemen in Fahrzeugen eine möglichst genaue Beschreibung der Umwelt zu erreichen. Nicht nur die große Vielfalt der unterschiedlichen Umweltszenarien, sondern auch das hohe Maß an Sicherheit, das die gestellte Aufgabe erfordert, bedingen ein breitbandiges und flexibles Gesamtsystem [6]. Ein Lösungsvorschlag wird im folgenden behandelt.

Uwe Handmann, Gesa Lorenz, Werner von Seelen

Parallele und global konvergente iterative Minimierung nichtlinearer Variationsansätze zur adaptiven Glättung und Segmentation von Bildern

Wir betrachten nicht-quadratische, konvexe Variationsansätze zur Bildsegmentation und untersuchen numerische Verfahren, die eine effiziente Berechnung globaler Minima auf parallelen Architekturen erlauben. Unser Augenmerk gilt dabei Verfahren mit globaler Konvergenz, d.h. Konvergenz gegen die eindeutige Lösung bei beliebigen Startwerten. Im Kontext der (semi-)automatischen Bildverarbeitung ist eine solche Eigenschaft sehr wichtig.Wir charakterisieren verschiedene Verfahren aus der aktuellen Literatur als spezielle Fälle eines allgemeinen Iterationsschemas. Darunter fallen der von Geman und Reynolds eingeführte auxiliary variable-Ansatz und die Linearisierungstechnik von Geman und Young. Als Ergebnis können wir die globale Konvergenz dieser Verfahren unter abgeschwächten Voraussetzungen zeigen.Zur Beschleunigung der Laufzeit unserer numerischen Verfahren wurden effiziente Krylov-Verfahren für die linearen Teilprobleme auf parallelen Architekturen implementiert. Experimentelle Ergebnisse bezüglich Konvergenzraten und speed-up werden vorgelegt. Aufgrund der Verwandschaft des Segmentationsansatzes mit Restaurationsverfahren, die auf dem Maß der Totalen Variation basieren, sind unsere Ergebnisse auch für diese breite Klasse von Bildverarbeitungverfahren relevant.

J. Heers, C. Schnörr, H. S. Stiehl

Calibration Errors in Structure from Motion

In this paper we investigate the relation between camera calibration and structure from motion. A method is presented to analyze the effect of systematic errors and uncertainty in camera calibration on 3D-reconstruction and motion parameters. In two simple examples from stereo with lateral and forward motion the approach is demonstrated. The approach can easily be extended to more complex situations and used for planning and online diagnostics in calibration and structure from motion.

Steffen Abraham, Wolfgang Förstner

Fast Approximation of Support Vector Kernel Expansions, and an Interpretation of Clustering as Approximation in Feature Spaces

Kernel-based learning methods provide their solutions as expansions in terms of a kernel. We consider the problem of reducing the computational complexity of evaluating these expansions by approximating them using fewer terms. As a by-product, we point out a connection between clustering and approximation in reproducing kernel Hilbert spaces generated by a particular class of kernels.

Bernhard Schölkopf, Phil Knirsch, Alex Smola, Chris Burges

Klassifikation und Neuronale Netze

Frontmatter

Discrete Mixture Models for Unsupervised Image Segmentation

This paper introduces a novel statistical mixture model for probabilistic clustering of histogram data and, more generally, for the analysis of discrete co-occurrence data. Adopting the maximum likelihood framework, an alternating maximization algorithm is derived which is combined with annealing techniques to overcome the inherent locality of alternating optimization schemes. We demonstrate an application of this method to the unsupervised segmentation of textured images based on local empirical distributions of Gabor coefficients. In order to accelerate the optimization process an efficient multiscale formulation is utilized. We present benchmark results on a representative set of Brodatz mondrians and real-world images.

Jan Puzicha, Thomas Hofmann, Joachim M. Buhmann

Integration of Multiple Feature Detection by a Bayesian Net for 3d Object Recognition

This paper proposes a general framework to build a 3d object recognition system from a set of CAD object definitions. Various, reliable features from object corners, edges and 3d rim curves are introduced which provide sufficient information to allow identification and pose estimation of CAD designed industrial parts. As features relying on differential surface properties tend to be very vulnerable with respect to noise, we model the statistical behavior of the data by means of Bayesian nets, representing the relations between objects and observable features. This allows to identify objects by a combination of several features considering the significance of each single feature with respect to the object model base. On this basis robust and powerful 3d CAD based object recognition systems can be build.

B. Krebs, M. Burkhardt, F. M. Wahl

Automatische Bewertung von Bildverarbeitungsroutinen zur konturorientierten Segmentierung mit FuzzySOLUTION

Derzeit herrscht ein allgemeines großes Interesse an der Bewertung von Bildverarbeitungsverfahren. In den letzten 20 Jahren wurde weltweit eine Vielzahl von Verfahren erarbeitet und es kommen immer neue dazu. Bei der Lösung eines konkreten Bildverarbeitungsproblems stellen sich daher oft die Prägen, welches Verfahren für eine vorgegebene Aufgabenstellung am besten geeignet ist und wie man Bildverarbeitungsverfahren beurteilen könnte.Für den Spezialfall der konturorientierten Segmentierungsverfahren wird ein Lösungsansatz für dieses Problem vorgestellt. Das System FuzzySOLUTION ist in der Lage Bildverarbeitungsverfahren aufgrund einer vorgegebenen Aufgabenstellung zu konfigurieren, deren freie Parameter zu adaptieren und anschließend die einzelnen Verfahren hochsprachlich zu bewerten.

H. Münkel, C.-E. Liedtke, U. Rost

Detektion von Personengruppen mit parameterfreien statistischen Klassifikatoren und Waveletmerkmalen

In diesem Beitrag untersuchen wir, in wie weit Waveletmerkmale in Verbindimg mit parameterfreien statistischen Klassifikatoren geeignet sind, Personengruppen in Bildern einer Videosequenz vom Szenenhintergrund zu unterscheiden. Anhand einer manuell segmentierten Stichprobe, die 2850 Bilder umfaßt, werden parameterfreie statistische Klassifikatoren überwacht trainiert. Die Klassifikatoren basieren auf Bin-Histogrammen und Markovketten und zeichnen sich durch eine sehr geringe algorithmische Komplexität und hohe Geschwindigkeit aus. Es wurden mittlere Erkennungsraten von über 80% im Test erreicht.

D. Faulhaber, P. Weierich, H. Niemann

Objektklassifikation mit Mischverteilungen

Ziel dieser Arbeit ist die Untersuchung der Fragestellung, inwieweit ‚konventionelle‘Klassifikatoren aus der statistischen Mustererkennung für die Objektklassifikation in der Bildverarbeitung einsetzbar sind. Dazu wurde ein auf Mischverteilungen basierender Klassifikator implementiert. Zur Merkmalsanalyse wurden die hochdimensionalen Bilddaten geeignet in einen niederdimensionalen Merkmalsraum projiziert. Die Klassifikation der so dimensionsreduzierten Merkmalsvektoren erfolgt über die Bayes’sche Entscheidungsregel. Auf der ‚Chair-Image-Database‘des Max-Planck-Instituts [1] erzielen wir eine Fehlerrate von 0.64%.

J. Dahmen, K. Beulen, H. Ney

Optimierung der Konvergenzgeschwindigkeit von Backpropagation

Für Backpropagation-Netzwerke wird eine neue Methode zur neuronenspezifischen Anpassung der Lernrate vorgestellt, welche eine deutliche Beschleunigung der Konvergenz insbesondere für große und vielschichtige Netzwerke erlaubt. Gezeigt wird dies am Zwei-Spiralen-Benchmark sowie an zwei Real-world-Problemen aus Medizintechnik und Physik.

R. Linder, S. J. Pöppl

Aktive Exploration

Frontmatter

Wissensbasierte aktive Szenenanalyse

In diesem Beitrag wird ein Gesamtsystem zur wissensbasierten Szenenexploration vorgestellt, das aus drei Hauptkomponenten besteht. Positionen von Objekten werden datengetrieben aufgrund ihrer Farbe hypothetisiert; Farbe wird auch zur Bildsegmentierung eingesetzt. Eine zweite Komponente, die dem aktiven Sehen zuzuordnen ist, steuert eine Schwenk/Neige-Kamera, die auf einem Linearschlitten montiert ist; hiermit wird zum einen eine Schätzung der Entfernung der Objekte von der Kamera errechnet, zum anderen werden anschließend die Objekthypothesen formatfullend aufgenommen. Ein drittes Modul zur wissenbasierten Bildanalyse verwendet eine Objektrepräsentation in Form von semantischen Netzen um abschließend mittels einer explizit repräsentierten Explorationsstrategie die einzelnen Objekte zu erkennen. Experimente in einer Büorumgebung belegen, daß diese Architektur dazu verwendet werden kann, flexibel Objekte zu erkennen.

D. Paulus, U. Ahlrichs, B. Heigl, H. Niemann

Ortsvariante Karte als effektives Datenformat zur Integration visueller Navigationsaufgaben

Die Eigenbewegung eines Beobachters durch eine strukturierte Umgebung verursacht ein globales Bewegungsmuster auf dessen Retina, den optischen Fluss. Die Auswertung dieses Flusses liefert wichtige Informationen zur Steuerung verhaltensbezogener Aufgaben, wie beispielsweise Kollisionsvermeidung und Navigation in offenen Umgebungen. Eine Fahrtrichtungsregelung, die den optischen Fluss in der linken und rechten Peripherie ausgleicht, erreicht eine sichere Navigation zwischen seitlichen Hindernissen hindurch. Der zentrale optische Fluss erlaubt dagegen die Vermeidung von Hindernissen in Fahrtrichtung. Eine Analyse der allgemeinen Struktur des Flussfeldes in dieser Situation führt uns dazu, eine spezielle Form der komplex-logarithmischen Transformation des Bildes als effizientes, einheitliches Datenformat für diese Aufgaben zu untersuchen. Unsere Roboter-Simulation zeigt die Geschwindigkeit und Zuverlässigkeit der vorgeschlagenen Architektur.

Christian Toepfer, Gregory Baratoff, Moritz Wende, Heiko Neumann

Vision-Based Detection of Navigation Codes for Mobile Robots

A new breed of robots whose characteristics, objectives and operational modes drastically differ from more conventional industrial robots is getting to be more and more of interest. Conventional robotics, which has been successful in improving productivity and relieving human workers from tedious routine tasks in manufacturing, now faces a new challenge of automating areas of labor other than those directly linked to production.

T. Cord, P. Levi, D. E. Lazic

Anwendungen

Frontmatter

Untersuchung der Detektionsleistung von 3D-Operatoren zur Ermittlung von Punktlandmarken in MR- und CT-Bildern

Während die Leistungsfähigkeit von 2D-Operatoren zur Detektion von Punktlandmarken in tomographischen Bildern bereits untersucht wurde (z.B. [10]), sind Untersuchungen bzgl. der Detektionsleistung von 3D-Operatoren kaum bekannt. In dieser Arbeit werden neun verschiedene 3D-Differentialoperatoren dahingehend untersucht, ob und inwieweit sie geeignet sind, Landmarken in 3D-Bildern zu detektieren. Dazu verwenden wir Maße, die unterschiedliche Aspekte der Detektionsleistung der Operatoren widerspiegeln.

Thomas Hartkens, Karl Rohr, H. Siegfried Stiehl

Erkennung deformierbarer Konturen und Oberflächen in verrauschten Bilddaten durch Einsatz modellgekoppelter anisotroper Merkmalsextraktoren

Die zuverlässige Detektion von Oberflächen oder Konturen in verrauschten Bildern erfordert den Einsatz von globalem Kontextwissen. Während bestehende Ansätze dieses Wissen für die Objektidentifikation in Merkmalsräumen einsetzen, die in unabhängigen Vorverarbeitungsschritten berechnet wurden, stellen wir einen Ansatz vor, der das Kontextwissen bereits bei der Extraktion lokaler Bildmerkmale verwenden kann. Zur Beschreibung des globalen Kontextes kommt dabei ein aktives Oberflächenmodell zum Einsatz, das mittels FEM realisiert wurde. Es wird exemplarisch die Anwendung auf Ultraschalldaten vorgestellt.

M. Schuckenberg, G. von Dziembowski, D. Meyer-Ebrecht

Real-Time-Tracking von Augenbewegungen: Automatische Mikroperimetrie mit dem Scanning-Laser-Ophthalmoskop

In diesem Beitrag wird ein effizienter Algorithmus zur Detektion und Kompensation von Augenbewegungen in On-Line-Bildsequenzen der Retina vorgestellt. Dabei wurde die Ermittlung des Verschiebungsvektors in die Bestimmung orthogonaler Komponenten aufgeteilt, deren sukzessive Berechnung anhand der Lage von Gefaßkanten durchgeführt wird. Bei der Implementierung in ein Mikroperimetrie-Untersuchungssystem auf der Rechnerplattform WindowsNT konnte ein Real-Time-Verhalten erreicht werden. Nicht auswertbare Positionen hervorgerufen durch Lidschlag oder saccadische Augenbewegungen werden automatisch erkannt und zurückgewiesen. Falsche Positionsbestimmungen konnten über ein Zuverlässigkeitsmaß vollständig ausgeschlossen werden.

A. Dölemeyer, H. Liebau, F. Toonen, S. Wolf, D. Meyer-Ebrecht

Arbeitsraumüberwachung mit Ultraschall-Sensorarrays

Mit der Zunahme der Automatisierung mechanischer Vorgänge durch die Robotik im direkten Interaktionsbereich des Menschen gewinnen auch Verfahren zum sicherheitstechnischen Schutz des Menschen und zur Erkennung möglicher Gefahrensituationen an Bedeutung. Dieser Beitrag beschreibt ein Verfahren zur Arbeitsraumüberwachung mit Hilfe einer Anordnung mehrerer Ultraschallsensoren, die in einem sehr weiten Winkelbereich detektieren können. Die im Pulsecho-Betrieb arbeitenden Sensoren liefern, jeder für sich, zwar sehr zuverlässige Informationen über die Entfernung zwischen detektiertem Objekt und Sensor, die Winkellage der Objekte kann jedoch innerhalb des Detektionsbereiches nicht bestimmt werden. Eine gleichzeitige Auswertung der von verschiedenen Sensoren des Arrays gesendeten Pulse durch Kreuzechoauswertung ermöglicht eine hinreichend genaue Ermittlung der räumlichen Lage von Objekten. Die Detektion wird mit MAP-Schätzverfahren für die Objektlage und -erkennungswahrscheinlichkeit durchgeführt. Die Funktion der diskutierten Verfahren wird am Beispiel einer Arbeitsraumüberwachung eines autonomen Betankungsroboters nachgewiesen.

Hauke Schmidt, Roland Klinnert, Wolfgang M. Grimm, Bernhard Wirnitzer

3D-Geometrien

Frontmatter

Circular Coded Target and Its Application to Optical 3D-Measurement Techniques

One of the primary but tedious tasks for the user and developer of an optical 3D- measurement system is to find the homologous image points in multiple images - a task that is frequently referred to as the correspondence problem. With the solution, the error-free correspondence and accurate measurement of image points are of great importance, on which the qualitative results of the succeeding 3D-measurement are immediately dependent. In fact, the automation of measurement processes is getting more important with developments in production and hence of increasing topical interest. In this paper, we present a circular coded target for automatic image point measurement and identification, its data processing and application to some optical 3D-measurement methods.

Sung Joon Ahn, Wolfgang Rauh

Dreidimensionale Lagebestimmung zu demontierender Objekte mit einem aktiven Stereokamerasystem

In diesem Beitrag wird ein aktives Stereokamerasystem zur visuellen Steuerung eines Demontageroboters beschrieben. Durch ein neuentwickeltes Stereoverfahren wird im Sinne einer Grob- Fein-Strategie eine erste grobe Tiefenschätzung durchgeführt und mögliche Hindernisse im Arbeitsbereich des Roboters lokalisiert. Parallel dazu werden die zu demontierenden Objekte erkannt und nach der Erkennung durch das aktive Sehsystem fixiert. Durch Erhöhung des Zoomfaktors und Filterung der Bilder in hoher Auflösung werden die dreidimensionale Position und Lage der Demontageobjekte im Raum genauer ermittelt. Die durch das Stereoverfahren errechneten Weltkoordinaten werden in Roboterkoordinaten transformiert, um eine Demontage des Objektes durch den Roboter zu ermöglichen. Die Positions- und Lagebestimmung der Objekte ist für eine Demontage von Rädern hinreichend genau.

R. Stemmer, R. Trapp, S. Drüe, G. Hartmann

Sprach- und Bildverstehen

Frontmatter

Erkennung handgeschriebener Wortsequenzen

Die vorliegende Arbeit stellt ein System vor, welches in der Lage ist, mit einfachen Satzmodellen eine Sequenz von hand-geschriebenen Wörtern zu erkennen. Hierzu werden Satzmodelle, welche ursprünglich in der Spracherkennung entwickelt wurden, verwendet. Durch die Verwendung dieser statistischen Modelle kann eine Reduzie-rung der Fehlerrate des Worterkenners von 23% auf 18% bzw. 15% er-reicht werden.

Urs-Viktor Marti, Horst Bunke

Invariante Erkennung handskizzierter Piktogramme mit Anwendungsmöglichkeiten in der inhaltsorientierten Bilddatenbankabfrage

In diesem Bericht präsentieren wir ein neuartiges Merkmalsextraktionsverfahren sowie einen Hidden-Markov-Modell (HMM) basierten Klassifizierer für die rotations-, translations-, und skalierungsunabhängige Erkennung von handskizzierten Piktogrammen. Die Merkmalsvektoren werden dabei in einem festen Winkelabstand entlang der Verbindungslinie zwischen dem Schwerpunkt und einem das Piktogramm einschließenden Kreis entnommen. Für die Erkennung werden HMM-Techniken verwendet, die es ermöglichen, neben dem Klassifikationsergebnis auch einen Schätzwert für den Rotationswinkel anzugeben. Die Evaluierung der vorgestellten Methoden erfolgt mittels zweier großer Piktogramm-Datenbasen, die jeweils aus 20 Klassen bestehen und deren Klassenelemente durch die handschriftliche Eingabe große Formvariationen aufweisen. Die erzielten Erkennungsraten liegen über 99% und sind denen, die mit Momentenmethoden in Kombination mit neuronalen Netzen erzielt wurden, überlegen. Als Beispiel für eine mögliche Anwendung der vorgestellten Techniken wird ein experimentelles Bilddatenbanksystem vorgestellt, das intuitiv über Skizzen des Benutzers angefragt werden kann.

Stefan Müller, Gerhard Rigoll, Denis Mazurenok, Daniel Willett

Attentive Face Detection and Recognition

In this paper we will present an approach for the attentive detection and recognition of faces in gray-value images. The approach is biologically motivated. The attentive face system, as we call it, shows great robustness with respect to scale, rotation, viewing orientation, changes in illumination, facial expressions, partial occlusions and other distortions caused, e.g., by glasses or a beard. The system has knowledge of several templates of different persons as well as of their exact relative positions. In a first low-level step the system detects relevant image features by evaluating a similarity measurement between local image features and known facial templates. In a second high-level step the system verified the consistency of these features by using the knowledge of the exact relative positions of the templates and reports whether a face was recognized, detected or whether no face was present.

Volker Krüger, Udo Mahlmeister, Gerald Sommer

Schnelle Bestimmung von Kamerabewegungen in block-basiert codierten Videosequenzen

Die vorliegende Arbeit beschreibt ein schnelles Verfahren zur automatischen Beschreibung der Kamerabewegung in einer blockbasiert codierten Videosequenz. Hierzu wird ein diesbezüglich aussagekräftiges Bewegungsmodell gewählt. Dessen Parameter werden aus den Bewegungsvektoren berechnet, die im Datenstrom der codierten Videosequenz enthalten sind. Hierbei werden die Vektoren entsprechend ihrer Zuverlässigkeit ausgewählt bzw. gewichtet. Trotz des für eine schnelle Berechnung nötigen einfachen Ansatzes zur Bewegungsbeschreibung erzielt das Verfahren eine hohe Genauigkeit.

J. Heuer, A. Kaup, H. Burkhardt

Untersuchungen zur Robustheit von Farbraummodellen bezüglich Szenengeometrie und Schwankungen in der Beleuchtungsintensität

In dieser Arbeit wird ein allgemeines Verfahren vorgestellt, mit dem man Farbraummodelle auf ihre Robustheit bezüglich der Szenengeometrie sowie von Schwankungen in der Beleuchtungs-intensität untersuchen kann. Es zeigt sich, daß lineare Farbraummodelle prinzipiell variant sind und daher Methoden der Bildverarbeitung stark beeinträchtigen. Die meisten der hier untersuchten nichtlinearen Modelle beinhalten unter der Voraussetzung, daß der Zusammenhang zwischen der einfallenden Lichtintensität und den Sensorsignalen linear ist, invariante Komponenten. Bei deren Verwendung ist eine robuste, von Szenengeometrie und Intensitätsschwankungen unabhängige Auswertung der Bilddaten möglich.1

Wilfried Kubinger, Markus Vincze, Gerfried Zeichen

Inkrementelle Verarbeitung von diskontinuierlichen Konstruktionen in gesprochener Sprache

Der vorgestellte Ansatz zur Verarbeitung von gesprochener Sprache ermöglicht, diskontinuierliche Konstruktionen inkrementell zu parsen. Charakteristisch für aufgabenorientierte Dialoge sind Konstruktionen, die von Produzent und Rezipient koordiniert produziert werden. Exemplarisch für solche Konstruktionen werden Extraversionen nach rechts untersucht. Bei diesen werden Konstituenten über Konstituentengrenzen oder über die Satzklammer nach rechts extravertiert. Der vorgestellte Ansatz, basierend auf einem LR(1)-Parser und einer Unifikationsgrammatik, bietet eine Möglichkeit, solche Konstruktionen inkrementell zu verarbeiten, indem der referentielle Bezug zwischen extravertierter Konstituente und Bezugskonstituenten nachträglich erstellt wird.

Susanne Kronenberg, Franz Kummert, Gerhard Sagerer

Bildbereichsbasierte Verfolgung von Straßenfahrzeugen durch adaptive Schätzung und Segmentierung von Optischen-Fluß-Feldern

Die Weiterentwicklung der Segmentierung eines adaptiv geschätzten Optischen-Fluß-Vektorfeldes unterstützt die Zuordnung von Segmenten zwischen aufeinander folgenden Aufnahmen. So lassen sich selbst kleine Abbilder von Straßenfahrzeugen in sogar leicht gestörten Bildfolgen normaler Konsum-Videokameras auch bei partieller Verdeckung durch Masten und Laub verfolgen. Die systematische Analyse der über mehrere hundert Aufnahmen hinweg verfolgten Objektmasken vertiefte das Verständnis lokaler Grauwertstrukturen, wodurch sich die Segmentierungs- und Schätzansätze bei Realwelt-Bildfolgen weiter verbessern ließen.

H.-H. Nagel, A. Gehrke

Erkennung von Körperbewegungsmustern durch Automaten

In den letzten Jahren ist das Interesse an der automatischen Erkennung von Körperbewegungen auf der Basis optischer Information ganz erheblich gestiegen. Die Vielfalt der Einsatzmöglichkeiten beweist, daß es sich nicht nur um das Interesse einer kleinen Schar von Experten handelt, z.B.: Ganganalyse, automatische Kommentierung von Sequenzen in Video-Datenbanken, die die Bewegungen von Menschen beinhalten [Cle95], drahtlose Mensch-Maschine-Schnittstellen für Virtual- Reality-Anwendungen [Bec97], Überwachungs-systeme, Interpretation von Zeichensprachen [Bra96][Sut96] und Choreographie von Tanz und Ballett [Cam95]. Für die automatische Erkennung der Körperbewegungen in Videobildern müssen mehrere Phasen durchgeführt werden: Initiale Detektion einer Person, Verfolgen der Person, Segmentierung des Körpers, Extrahierung der einzelnen Körperteile und Erkennung der Körperbewegungsmuster. Es sind schon mehrere Systeme in speziellen Gebieten entwickelt worden, die die Körperbewegungen erkennen können, z.B. Sensei [Bec97], ARGo [Bra96], First Sight [Leu95] usw. Zur Klassifikationsmethode von Bewegungsmustern wurden Phase Space Methode [Cam95], HMM (Hidden Markov Model) [Bec97][Bra96], Dynamic Time Warping [Gav95], Template Matching [Sut96] usw. angewendet. Der Schwerpunkt dieses Beitrags liegt auf der Klassifikationsmethode von Körperbewegungsmustern mit dem Ziel, die nonverbalen Körpersignale zu erkennen. Eine Körperbewegung enthält gleichzeitig mehrere Körperteilbewegungen mit verschiedenen Bewegungsvektoren.

Kyungeun Cho, Hyungje Cho

Grundlagen und Algorithmen(Postersession)

Frontmatter

Least Squares Fitting of Circle and Ellipse

The least squares fitting of geometric features to given points minimizes the squares sum of error-of-fit in predefined measures. By the geometric fitting, the error distances are defined with the orthogonal, or shortest, distances from the given points to the geometric feature to be fitted. For the geometric fitting of circle and ellipse, robust algorithms are proposed which are based on the coordinate description of the corresponding point on the circle/ellipse for the given point, where the connecting line of the two points is the shortest path from the given point to the circle/ellipse.

Sung Joon Ahn, Wolfgang Rauh, Berend Oberdorfer

Real-Time Adaptive Smoothing with a 1-D Nonlinear Relaxation Network in Analogue VLSI Technology

Reconstruction of given noisy data is an ill-posed problem and a computationally intensive task. Non-linear regularisation techniques are used to find a unique solution under certain constraints. In our contribution we present a parallel mixed-signal architecture which solves this non-linear problem within microseconds. By connecting all parallel cells in a circular manner it is possible to process noisy data vectors of infinite length. This is achieved by virtually shifting the non-linear adaptive filter kernel over the noisy data vector. A 1-D experimental chip has been fabricated using 0.8μxm CMOS technology. On-chip measurements are shown to agree with results from numerical simulations. Results from applying the 1-D chip to nonlinear smoothing of image data will also be given correspondence.

K. Wiehler, R.-R. Grigat, J. Heers, C. Schnörr, H. S. Stiehl

Ein verallgemeinerter Total Least Squares-Ansatz zur Schätzung der Epipolargeometrie

Kern dieses Beitrags ist (in Erweiterung von [6]) die statistische Analyse des 8 + n-Punkte Algorithmus’ zur Bestimmung der Fundamentalmatrix. Dadurch gelingt es, eine Verbesserung dieses als sehr empfindlich geltenden Verfahrens zu erreichen, die über die Wirkung der von Hartley vorgeschlagenen Normalisierungstransformationen hinausgeht. An dem hier betrachteten „klassischen“Vision-Problem wird deutlich, daß die möglichst genaue statistische Analyse des Fehlerverhaltens eines Algorithmus’ keine akademische Fingerübung, sondern eine zwingende Notwendigkeit auf dem Weg zu zuverlässigen und praxistauglichen Verfahren ist.

Matthias Mühlich, Rudolf Mester

Improving Phase-Based Disparity Estimation by Means of Filter Tuning Techniques

Phase differencing techniques have been proven to be fast and robust methods for estimating disparity between two views. This disparity estimation depends on the quality of the local phase information which is a response of carefully designed frequency selective filter pairs for local phase estimation. Badly adjusted filter kernels yield responses with low amplitude and thus numerically instable phase information. In this paper we investigate the role of filter tuning to avoid singular points. We present a new iterative algorithm to optimally adjust the local phase estimating filters and compare the results with other phase differencing techniques as well as an instantaneous frequency driven filter tuning. Various experiments demonstrate that the iterative filter tuning technique shows improved performance.

Ingo Ahrns, Heiko Neumann

Klassifikation und Neuronale Netze (Postersession)

Frontmatter

Shape Decomposition and Shape Similarity Measure

We propose a simple and natural rule for decomposition of 2D objects into parts of visual form. The hierarchical convexity rule states that visual parts axe enclosed by maximal convex boundary arcs (with respect to the object) at various levels of curve evolution. The proposed rule is based on a novel curve evolution method by digital linearization in which a significant visual part will become a convex part at some level of the evolution. The hierarchical convexity rule determines not only parts of boundary curves but directly the visual parts of objects, and the evolution hierarchy induces a hierarchical structure of the obtained visual parts.Further, we derive a shape similarity measure based on the decomposition into visual parts and apply it to shape matching of object contours in an image database. The experimental results justify that our shape matching procedure is stable and robust with respect to noise deformations and gives an intuitive shape correspondence.

Longin Jan Latecki, Rolf Lakämper

Bildorientierte Videoindexierung mit Hidden Markov Modellen

In diesem Beitrag wird ein neuartiger Ansatz zur inhaltsorientierten Videoindexierung auf der Basis von Hidden Markov Modellen vorgestellt. Bei diesem Ansatz wird für jedes Bild der Videosequenz ein Merkmalsvektor berechnet, welcher mit Hidden Markov Modellen modelliert und klassifiziert wird. Dieser Ansatz hat viele Vorteile gegenüber anderen Videoindexierungsansätzen. Das System kann durch die Vorgabe von manuell indexierten Beispielen trainiert werden und ist dadurch sehr leicht an neue Erkennungsaufgaben adaptierbar. Das System benutzt ein Modell, das die Abfolge von Inhalts-klassen vorgibt, um die Erkennungsleistung zu verbessern.

Stefan Eickeler, Gerhard Rigoll

Konturbasierte Personenlokalisation mittels dreidimensionaler neuronaler Felder und steuerbarer Filter

In dieser Arbeit wird ein Verfahren zur Lokalisation von Personen innerhalb unpräparierter visueller Szenen anhand typischer Konturen vorgestellt. Es wird sich dabei auf die äußere Kontur frontal ausgerichteter Personen im Bereich von Kopf und Schultern bezogen (Kopf-Schulter-Partie). Diese Kontur wird approximiert durch ein räumlich verteiltes Arrangement steuerbarer (steerable) Filter, das auf einer Anzahl von pyramidal abgestuften Auflösungen eines Bildes ange-wendet wird.Unter den Bedingungen realer Umwelten führt der Einsatz dieses Filterarrangements allerdings häufig zu einem unscharfen und teilweise artefaktbehafteten Ergebnis, so daß ein Kriterium zur Selektion als Bedingung für eine gute Lokalisationsleistung benötigt wird. Daher werden zur Bildung einer optimalen Lokalisationsentscheidung dreidimensionale neuronale Felder verwendet, innerhalb derer eine dynamische Musterbildung mit dem Ziel der Selektion einer Person erfolgt. Mittels einfacher homogener feldinterner Wechselwirkungsmechanismen können robuste Lokalisationsentscheidungen (Richtung und Entfernung) gefunden werden. Die Aktivitäten der Feldneuronen können als interne Zustände angesehen werden, die eine permanente Lokalisation (und damit eine visuelle Verfolgung der Person) wesentlich vereinfachen.

Ulf-Dietrich Braumann, Andrea Corradini, Hans-Joachim Böhme, Horst-Michael Groß

Combining Contour and Region Information for Perceptual Grouping

Both contour and region segmentation have their own advantages and drawbacks. In this work we propose to combine contour approximation and contour-based groupings with region segmentation to enhance both contour- and region-based interpretation of the image data. Contour segments and regions are matched based on the distance between contours and region boundary. This information is used to hypothesise alternative regions and to generate additional closed contours within the contour-based grouping process. Initial results for real images are presented.

Daniel Schlüter, Stefan Posch

Systematic Curvature Distortions in Stereo

Systematic distortions occur when incorrect parameters of a stereo configuration are used in the reconstruction of a three-dimensional scene from image correspondences. Consideration of the effect of errors on reconstruction is especially important for an active observer, since its stereo configuration changes continuously due to gaze shifts, and hence needs to be recomputed in real-time. For a fixating observer the largest distortions occur within epipolar planes; of particular interest among these is the fixation plane. We study the distortion of points in this plane on a global, qualitative, level, making use of properties of quadratic Cremona transformations, and on a local, quantitative level. We derive closed-form expressions for the distortion of curvature and determine the exact criteria governing changes in convexity of curves. Our simulations show that such distortions can be severe for very close distances; for the most part, however, curvature distortion depends roughly linearly on the fixation error, but only marginally on fixation angle or distance along the gaze line.

Gregory Baratoff

Ein hierarchischer neuronaler Klassifikator für die Erkennung von Einzelzeichen in mathematischen Formeltexten

In dieser Arbeit wird eine hierarchische neuronale Netzwerkarchitektur für die Musterklassifikation vorgestellt. Die verwendeten Basisarchitekturen sind kompetitive LVQ- (learning vector quantization) und RBF-Netzwerke (radiale Basisfunktionen). Die Gesamtarchitektur des Klassifikators ist zweistufig. Die erste Klassifikatorstufe ist ein LVQ-Netz zur Grobklassifkation. Klassen die auf dieser Stufe an Verwechslungen beteiligt sind, werden zu Oberklassen, den sogenannten Verwechslungsklassen, zusammengefasst. Für jede Verwechslungsklasse wird in der zweiten Stufe ein spezielles RBF-Netz aufgebaut, das zwischen den (wenigen) Klassen dieser Verwechslungsklasse diskriminiert. Die Verwechslungsklassen werden aus der Verwechslungsmatrix des LVQ- Klassifikators bestimmt. Sowohl die Gesamtarchitektur als auch die Parameter (= Gewichte der künstlichen Neuronen) der LVQ/RBF-Netzwerke werden während der zweistufigen Trainingsprozedur erzeugt. Der hierarchische Klassifikator ist für Klassifikationsprobleme mit sehr vielen Klassen einsetzbar. Die Initialisierung der künstlichen RBF-Neuronen durch die Prototypen des LVQ-Netzes liefert ein sehr effizientes Trainingsverfahren.

Friedhelm Schwenker, Steifen Simon, Günther Palm

Aktive Exploration (Postersession)

Frontmatter

Navigation mit Schnappschüssen

Es wird ein biologisch inspirierter Algorithmus vorgestellt, mit dem sich ein Ort wiederfinden läßt, an dem vorher eine 360°- Ansicht der Umgebung aufgenommen wurde. Die Zielrichtung wird aus der Verschiebung der Bildposition der umgebenden Landmarken im Vergleich zum Schnappschuß berechnet. Die Konvergenzeigenschaften des Algorithmus werden mathematisch untersucht und auf mobilen Robotern getestet.

Matthias O. Franz, Bernhard Schölkopf, Hanspeter A. Mallot, Heinrich H. Bülthoff, Andreas Zell

Entwicklung verteilter Musteranalysesysteme mit DACS

In traditionellen Ansätzen zu paralleler oder verteilter Verarbeitung werden meist wohlstrukturierte Probleme vollständig in einer Programmierumgebung implementiert. Im Gegensatz dazu ist es bei der Entwicklung großer Musteranalysesysteme meist erforderlich, viele heterogene Software-Module zu einem Gesamtsystem zu integrieren. Wir stellen ein Kommunikationssystem für verteilte Anwendungen vor, das speziell für diesen Zweck entwickelt wurde. Es erlaubt vollständig symmetrische Modulinteraktion, verwendet strukturierte und typisierte Daten und stellt verschiedene Aufrufsemantiken zur Verfügung. Die Leistungsfähigkeit des Systems wird anhand der Entwicklung des Prototyps eines „situierten künstlichen Kommunikators“demonstriert.

Gernot A. Fink, Nils Jungclaus, Helge Ritter, Gerhard Sagerer

Anwendung (Postersession)

Frontmatter

Bildmatching und Bewegungskompensation bei Fundus-Bildern

Bildgestützte Diagnosen des Augenhintergrundes werden oft durch eine instabile Fixation der Augen des Patienten erheblich erschwert. Deshalb ist es bei einer Auftiahmefolge des gleichen Augenhintergrundes unbedingt notwendig, die stabile Fixation durch eine Bewegungskompensation zu garantieren. Dies ist eine klassische Aufgabe der Bildregistrierung (siehe z.B. [1]). Da in den Bildern keinerlei Referenzpunkte oder Referenzobjekte sicher bestimmt werden können, scheiden alle merkmalsbasierten Matching-Verfahren aus, die auf Referenzen von Punkten bzw. Objekten beruhen. Daher müssen wir uns auf die signalbasierte Bewegungskompensation beschränken. Hier gibt es in der Literatur eine Fülle von Verfahren, die im wesentlichen in die differentiellen und die flächenbasierten Verfahren eingeteilt werden, siehe stellvertretend [12]. Auch alle Verfahren, die die „Mitnahme der Grauwerte“voraussetzen, sind für die vorliegende Aufgabenstellung ungeeignet, beispielsweise der „Optische Fluß“oder der Algorithmus in [11]. Ein großer zeitlicher Abstand zwischen zwei Aufnahmen des Augenhintergrundes bedingt erhebliche photometrische Schwankungen. Physiologisch bedingte Veränderungen der Retina führen zu starken Differenzen in den Grauwerten, so z.B. das Füllen/Leeren von Adern des Augenhintergrundes, siehe Abb.l. Die zwischen den Einzelbildern auftretenden geometrischen Transformationen bestehen im wesentlichen aus Translationen, aber auch geringe Rotationen, Skalierungen und sogar Deformationen sind vorhanden.

K. Voss, W. Ortmann, H. Süße

Computergestützte Endokarderkennung echokardiographischer Bildsequenzen

In der Ultraschalldiagnostik müssen für den Nachweis koronarer Herzerkrankungen mit Hilfe der Streß-Echokardiographie die Bewegungen des Endokards während Systole und Diastole vollständig nachvollziehbar sein. Bedingt durch die zeitlich und örtlich stark verrauschten Aufnahmen in der Echokardiographie ist die Erkennung des Endokards durch den Diagnostiker oftmals nur bei laufender Bildsequenz möglich. Im einzelnen Standbild hingegen ist in Ermangelung einer zeitlichen Interpolationsmöglichkeit der Endokardverlauf nur unvollständig sichtbar. In diesem Beitrag wird ein Verfahren vorgestellt, das unter Verwendung eines an die besonderen Gegeben-heiten von Ultraschallsequenzen angepaßten adaptiven Rangordnungsfilters, einer lokalen 3D-Grauwertäqualisation sowie eines Gebietswachstumsverfahrens die automatische Erkennung des Endokards realisiert. Es wird gezeigt, daß zur Rauschunterdrückung die Residuum-Filterung mit Hilfe eines mehrstufigen radialen Median- Filters sehr gute Ergebnisse liefert. Der ermittelte Endokardverlauf wird nach Anhalten der Sequenz in das aktuelle Frame eingeblendet, so daß er auch im Einzelbild für eine Diagnose zur Verfügung steht. Die vorgestellten Simulationsergebnisse zeigen, daß die algorithmisch ermittelten Endokardverläufe gut mit den subjektiv empfundenen Verläufen übereinstimmen.

A. Teuner, J. E. Santos Conde, O. Pichler, B. J. Hosticka

Verfahren zur Erkennung der Herzkontraktion anhand von MRT-Aufnahmen

Die Untersuchung der Herzbewegung ist ein fundamentaler Schritt zum Verständnis von Herzmuskelerkrankungen. Die Erkennung und die anschließende visuelle, quantitative Darstellung der Bewegung erlauben es, frühzeitig Rückschlüsse über die Erkrankung des Herzmuskelgewebes zu ziehen. Wir präsentieren hier ein Verfahren zur Erkennung der Herzbewegung aus Tagged-MRT- Bildsequenzen und die anschließende Darstellung der Bewegung.

Christian Lenz, Rainer Brokordt, Peter Barth

Prüfsystem VINSPEC für die automatische Qualitätssortierung von Autospiegeln

Die Anforderungen an Bildverarbeitungssysteme für Qualitätsprüfungen sind extrem gestiegen. Sowohl durch die kontinuierliche Weiterentwicklung der Analyseverfahren als auch durch die rasante Entwicklung der Hardwarekomponenten können komplexe Prüfaufgaben technisch und wirtschaftlich gelöst und realisiert werden. Ein wesentliches Problem bei der Realisierung komplexer Prüfanlagen ist die Handhabbarkeit für den Maschinenfuhrer. Gerade bei Anlagen zur Prüfung ganzer Produktfamilien mit variierenden Qualitätsanforderungen, wie zum Beispiel Autorückspiegeln, muß der Maschinenfuhrer in der Lage sein, seine Anforderungen schnell und gezielt umsetzen zu können.

Thomas Preußer

A Fast Image Processing Algorithm for Quality Control of Woven Textiles

Textile manufacturers have to monitor constantly the quality of their products (i.e., woven fabrics) in order to maintain the rigorous quality standards required by their customers. Up to fifty different kinds of defects (depending on the type of the fabric) are usually considered when defining the textile quality. At present, the inspection of textiles is mainly realized offline (after the production process) by human controllers who accomplish a tedious and tiring work. Hence, the detection and classification of these defects becomes less accurate over time, and the defects are not classified according to systematic criteria since each controller perceives, analyzes and interprets the defects differently. In addition, the low control speed (about twenty to thirty meter/minute) when compared to the production speed (about sixty meters per minute) represents a problem in the work flow.

Ch. Daul, R. Rösch, B. Claus, J. Grotepaß, U. Knaak, R. Föhr

Tomographische 3D-Rekonstruktion von Gußfehlern

Voraussetzung für die tomographische Prüfung von Gußkörpern auf interne Defekte ist in der Regel eine große Anzahl um den Gußkörper verteilter Aufnahmen. Im Bereich der industriellen Qualitätsprüfung steht jedoch zum Teil aus Zeit-und Kostengründen nur eine sehr begrenzte Anzahl von Aufnahmen zur Verfügung. Zudem verhindert teilweise das Aspektverhältnis der Bauteile eine Prüfung von allen Seiten. Herkömliche Tomographieverfahren sind in solchen Fällen nicht einsetzbar. In diesem Beitrag wird ein neues Verfahren zur tomographischen 3D-Rekonstruktion von Gußfehlern aus wenigen Röntgenaufnahmen vorgestellt. Die Rekonstruktion wird in einem zweistufigen Verfahren durchgeführt. Zunächst wird das Rekonstruktionsgebiet auf Regions of Interest um die Defektbereiche eingeschränkt und anschließend die 3D-Rekonstruktion mit einem neu entwickelten iterativen Tomographieverfahren durchgeführt. Für die Regularisierung des tomographischen Rekonstruktionsproblems wird das Maximum Entropie Prinzip in Verbindung mit einem iterativen Verfahren zur Binärisierung der Rekonstruktion verwendet. Die Rekonstruktion wird unabhängig von a priori Annahmen über die Form der zu rekonstruierenden Gußfehler durchgeführt.

Carsten Lehr

Automatisierte Regelgenerierung zum Erkennen von Mustern aus Merkmalen zyto- und histopathologischer Präparate zur prognostischen Einschätzung bei Brustkrebs

Infolge der Komplexität der Problemstellung ist die Formulierung von Entscheidungsregeln für ein Expertensystem zur Brustkrebsprognose aus histologischen und zytologischen Fallstudien sehr schwierig.Zur Unterstützung dieses Prozesses wird hier ein neuronales Fuzzy-System untersucht. Um Muster in Form von unscharfen Regeln aus Datenmengen zu extrahieren, ist die Vorgabe der linguistischen Terme der ausgewählten Variablen durch einen Fachmann notwendig. In den Prozeß wird auch Expertenwissen eingebracht, jedoch nicht unter dem Zwang Entscheidungsregeln formulieren zu müssen, also in angemessener Form und mit Experimentiermöglichkeiten.Zur Bewertung der erzeugten Regeln werden die Prognoseergebnisse verglichen, die einerseits mit von Experten formulierten Regeln und andererseits mit generierten Regeln des neuronalen Fuzzy-Systems erzielt werden. Die mit dem System erzeugten Regeln zeigen bezüglich der Fehlerrate ein deutlich besseres Entscheidungsverhalten als die Expertenregeln. Eine Optimierung für unsymmetrische Kosten steht noch aus.

K. Gärtner, R. Schulze, S. Fuchs, F. Theissig, V. Dimmer, G. Haroske, K.-D. Kunze, W. Meyer

Visuelle Diagnose von Flammenfeldern in der Kohlenstaubfeuerung

Gegenstand dieser Arbeit ist die Analyse der Farbwerte von Flammenbildern, um Rückschlüsse auf zugrundeliegende Prozeßsituationen zu treffen. Dazu erfolgt die Auswertung die Bildfarbwerte über einen am Datenmaterial belehrten neuronalen Clusterer in einem Histogramm, welches anschließend durch Verwendung eines Backpropagation Netzes bezüglich eingestellter Prozeßparameter klassifiziert wird.

A. Heinze, K. Debes, H.-M. Groß

3D-Geometrien (Postersession)

Frontmatter

Wissenserwerb für Produktionsnetze zur 3D-Erkennung von Fahrzeugen

Zur dreidimensionalen Detektion und Klassifikation von Fahrzeugen aus Bildfolgen wird ein modellbasiertes Erkennungsverfahren eingesetzt. Die verwendeten Modelle werden durch Produk tionsnetze beschrieben. Der Wissenserwerb erfolgt aus CAD-Modellen. Zur Erstellung eines neuen Produktionsnetzes werden interaktiv Hierarchiegraphen erstellt und aus den CAD-Daten standardisierte Produktionen parametrisiert.

E. Michaelsen, U. Wankmüller, U. Stilla

Fehlererkennung der Oberflächenform durch SD-Vermessung und Auswertung mit einem künstlichen neuronalen Netz

Der Beitrag beschreibt eine Methode für die Fehlererkennung der Oberflächenform durch eine 3-D-Vermessung und anschließende Auswertung der Daten mit Hilfe eines neuronalen Netzes.Die Erkennung von Abweichungen der Oberfläche von der gewünschten Form eines Meisterobjektes erfordert normalerweise eine exakte Justierung der Objekte in einer Position. Insbesondere können Verformungen nicht ausgeglichen werden. Bei der hier vorgestellten Methode ist diese genaue Justierung nicht erforderlich.Es werden zunächst mehrere Meisterstücke in unterschiedlichen Positionen und Variationen in ein neuronales Netz eingespeichert. Beim Abruf des Netzes mit den Daten der zu überprüfenden Teile, werden nicht gespeicherte Merkmale geglättet und dadurch quasi das Meisterstück in der aktuellen Lage rekonstruiert. Die Auswertung kann dann durch einfache Differenzbildung erfolgen.Anhand eines Beispiels werden die Möglichkeiten, die diese Methode bietet, demonstriert.

Tilo Lilienblum, Georg Günther, Michael Küehel, Bernd Michaelis

Dynamische Analyse von rekonstruierten 3D Punkten zur Navigation eines Stereo-Vision basierten mobilen Systems

Die verschiedenen Anwendungen im Bereich der Navigation von mobilen Systemen hängen u.A. von der Art des verfügbaren Wissens über die Umgebung ab. Anwendungen in Gebäuden verwenden häufig Landmarken oder -karten zur Orientierung oder man verfügt über eine genaue Kenntnis von Objekten, die sich in derartiger Umgebung befinden [2] [6] [9]. Ist nun kein apriori-Wissen über die Umgebung oder Objekte in dieser vorhanden, so sind allgemeine Ansätze zur Navigation gefordert. In diesem Beitrag wird ein Verfahren zur Navigation eines autonomen mobilen Systems in Innenräumen skizziert, das auf rekonstruierten 3D Punkten basiert. Es wird keine Kenntnis über die Umgebung vorausgesetzt. Grundlage dieses Verfahrens ist ein Liniensegment-Stereo-Algorithmus, sowie ein 3D Rekonstruktionsverfahren. Damit erhält man unsichere 3D Punkte einer Szene, die alle als mögliche Hindernisse aufgefaßt werden. Diese 3D Punkte werden mit einem kombinierten statistischen Verfahren analysiert, das schließlich zu einem Lenkwinkel für das mobile System führt. Um die Navigation robuster zu gestalten, wird der in [8] vorgestellte Ansatz um eine dynamische Analyse der rekonstruierten 3D Punkte erweitert. Das Verfahren wurde auf dem Experimentalsystem MOVILAR realisiert (MObile Vision and LAser based Robot), welches über ein Stereokamerasystem verfügt.

Oliver Schreer

Sprach- und Bildverstehen (Postersession)

Frontmatter

Orientation Constraints in Point-Based Elastic Image Registration

We present a new approach to incorporate orientation attributes at landmarks in an elastic medical image registration scheme. The approach is based on a minimizing functional and can cope with images of arbitrary dimensions. Constraints due to orientations are incorporated through scalar products between the transformed orientation vectors in the source image and vectors which are perpendicular to the orientation vectors in the target image. For synthetic data sets we show that the structure of rigid objects in an otherwise elastically deformed image can be preserved. The application of our approach to tomographic data sets shows that improvements w.r.t. accuracy can be achieved provided a sufficient number of landmarks is well-distributed over the image.

Mike Fornefett, Karl Rohr, Rainer Sprengel, H. Siegfried Stiehl

Bilinguale Sprachverarbeitung mit Speedata

In diesem Artikel wird das EU-Projekt SpeeData vorgestellt, in dem ein Prototyp für bilinguale Sprachverarbeitung entwickelt wurde. Neben deutschen und italienischen Muttersprachlern sind unter den Sprechern zahlreiche Nichtmuttersprachler und Dialektsprecher vertreten. Durch die Entwicklung und Anwendimg von verschiedenen Algorithmen für die Adaption auf Sprecher- und Sprechergruppen sowie durch die Modellierung von Wortklassen für die Sprachmodellierung konnte bei 4704 deutschen und 3946 italienischen Wörtern eine Fehlerrate von 4.8% für die italienische und 7.7% für die deutsche Sprache erreicht werden.

U. Uebler, H. Niemann

Stereo Matching by RBF Networks with Occlusion Detection

In this paper, we propose a new solution to the stereo correspondence problem by using both features and intensity values. A cost function is formed by integrating intensity errors, gradient errors, and a smoothness error. Unlike previous use of a smoothness constraint, the smoothness term here is applied only to non-feature regions. To do function minimization, we propose to parameterize the disparity function by hierarchical Gaussians. To detect occlusions and disparity discontinuities, we propose to combine results from the left-to-right and right-to-left matchings without explicitly modeling discontinuities in the algorithm. Experimental results show efficiency of our method.

Guo-Qing Wei, G. Hirzinger

Sonardaten-Integration für autonome mobile Roboter

In dieser Arbeit wird ein Echtzeitverfahren zur Sonardaten-Integration und Aufbau von Gitterkarten anhand eines probabilistischen vierdimensionalen Sonar-Modells vorgestellt. Das Sonar-Modell berücksichtigt das Verhalten des Ultraschallsensors während der Roboterbewegung in der realen Umgebung. Experimente zeigen die hohe Genauigkeit aufgebauter Gitterkarten und die Robustheit des Verfahrens gegenüber den stark verrauschten Ultraschall- Daten.

Alexander Mojaev, Andreas Zell

Compressive Computation in Analog VLSI Motion Sensors

We introduce several different focal plane analog VLSI motion sensors developed in the past. We show how their pixel-parallel architecture can be used to extract low-dimensional information from a higher dimensional data set. As an example we present an algorithm and corresponding experiments to compute the focus of expansion, focus of contraction and the axis of rotation from natural visual input. A fully integrated system for real-time computation of these quantities is proposed as well. In computer simulations it is shown that the direction of motion vector field is best suited to perform the algorithm even at high noise levels.

Rainer A. Deutschmann, Oliver G. Wenisch

Automatische Generierung hybrider Objektmodelle

In diesem Beitrag wird ein Verfahren zur automatischen Generierung hybrider Objektmodelle für die aktive 3D Objekterkennung vorgestellt. Unser Verfahren setzt direkt auf den von uns verwendeten ErkennungsStrategien auf. Diese basieren auf einer holistischen Auswertung der Kamerabilder auf einer subsymbolischen Ebene, die ergänzt wird durch eine Objektbeschreibung auf der Basis mehrerer Ansichten des Objektes aus unterschiedlichen Blickrichtungen und einer Reihe dazugehöriger charakteristischer Detailansichten. Die von uns gewählte Erkennungsarchitektur erlaubt die Generierung von Objektmodellen durch einmaliges Präsentieren der Objekte, so daß auf aufwendige Trainingssequenzen verzichtet werden kann. Dazu werden zunächst die Begriffe Objektansicht und Detailansicht geklärt, bevor ein Verfahren zur Auswahl charakteristischer Ansichten vorgestellt wird. Die Objektmodellierung erfolgt dann mit Hilfe dieser charakteristischen Ansichten in semantischen Netzwerken.

Ulrich Büker, Björn Kalkreuter

Erkennung und Lagebestimmung realer Objekte durch tolerante Repräsentation und modellbasiertes Gruppieren

Viele konturbasierte Erkennungsverfahren delektieren gut konturierte, starre Objekte in wenig strukturierten Szenen zuverlässig. Reale Objekte können aber ihre Erscheinungsform ändern und werden so weniger zuverlässig erkannt. Die Fehlerkennungsrate nimmt dabei mit steigender Szenenkomplexität zu. Zur exakten Lagebestimmung bereits detektierter Objekte entsteht ein über die Erkennung hinausgehender Aufwand. Wir stellen ein Erkennungssystem vor, das auf einer toleranten Konturrepräsentation beruht. Neben einer zuverlässigen Erkennung von Objekten mit leicht veränderlichen Konturen (z.B. aufgrund von Änderungen der Perspektive) auch in komplexen Szenen wird implizit deren genaue Lage bestimmt. Durch modellbasiertes Gruppieren wird eine teilobjektbasierte Erkennung von Gesamtobjekten gewährleistet, die einer direkten Erkennung des Gesamtobjektes in Bezug auf Effizienz und Robustheit überlegen ist.1

N. Götze, S. Drüe, G. Hartmann

Backmatter

Weitere Informationen