Auf der Fachkonferenz "Conference and Workshop on Neural Information Processing Systems" (NIPS) im kalifornischen Long Beach (USA) zeigt ein Projektteam des Audi-Tochterunternehmens Audi Electronics Venture (AEV) ein Vorentwicklungsprojekt. Dabei handelt es sich um eine Monokamera, die durch künstliche Intelligenz ein hochpräzises 3-D-Modell der Fahrzeugumgebung generieren soll.
Als Sensor dient eine handelsübliche Frontkamera. Sie soll den Bereich vor dem Auto in einem Winkel von etwa 120 Grad erfassen und 15 Bilder pro Sekunde mit 1.3 Megapixel Auflösung liefern. Diese Bilder werden daraufhin in einem neuronalen Netz verarbeitet. Dort findet auch die sogenannte semantische Segmentierung statt. Dabei wird jedem Pixel eine von 13 Objektklassen zugeordnet. Dadurch kann das System andere Pkw, Lkw, Häuser, Fahrbahnmarkierungen, Menschen und Verkehrsschilder erkennen und unterscheiden.
Präzise Interpretation des Verkehrsgeschehens
Auch für die Abstandsinformationen nutzt das System neuronale Netze. Die Visualisierung erfolgt hier über sogenannte ISO-Linien – virtuelle Begrenzungen, die einen konstanten Abstand definieren. Mit dieser Kombination aus semantischer Segmentierung und Tiefenschätzung soll ein präzises 3-D-Modell des realen Umfelds entstehen.
Mithilfe von "unsupervised learning" haben Audi-Techniker das neuronale Netz im Vorfeld trainiert. Das "unsupervised learning" braucht anders als das "supervised learning" keine vorsortierten und klassifizierten Daten und ist ein Ansatz, aus Beobachtung von Sachverhalten und Szenarien zu lernen. Das neuronale Netz bekam zahlreiche, mit einer Stereokamera aufgenommene Videos von Straßensituationen zu sehen. Daraufhin lernte das Netz, eigenständig die Regeln zu verstehen, mit denen es aus den Bildern der Monokamera 3-D-Informationen erstellt.