Skip to main content

17.02.2023 | Automatisiertes Fahren | Schwerpunkt | Online-Artikel

Wie KI selbstfahrenden Autos hilft Objekte wahrzunehmen

verfasst von: Dieter Beste

6 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
print
DRUCKEN
insite
SUCHEN
loading …

Assistiert, teilautomatisiert, hochautomatisiert, vollautomatisiert, autonom. Am Ende dieser fünf Stufen steht das autonome Fahrzeug. Forscher arbeiten daran, ihnen eine menschenähnliche Wahrnehmung zu verleihen. 

In nicht allzu ferner Zukunft werden autonom fahrende Autos unsere Straßen erobern und sich ihren Weg zwischen Fußgängern, Radfahrern, Bussen und Bahnen suchen. Die Navigationsfähigkeit solcher autonomen Roboter in urbanen Umgebungen anhand etwa von 2-D- oder 3-D-Karten beeindruckt schon heute. Doch auch "die Kenntnis aller Verkehrsregeln und Karten der Welt" wird dem Autopiloten eines autonomen Fahrzeugs nicht helfen, sicher zu fahren, benennt Volker Lang das Problem für die Verkehrssicherheit im Kapitel Künstliche Intelligenz des Buches Digitale Kompetenz

Verfahren und Methoden der künstlichen Intelligenz (KI) sind der Schlüssel zum autonomen Fahren. Bislang schrecken autonome Fahrzeuge allerdings noch vor der Begegnung mit Menschen im städtischen Straßenbild zurück. Denn den bisherigen Autonomie-Verfahren mangelt es noch an Robustheit. Hoffnungen ruhen auf Fortschritten insbesondere auf dem Gebiet der Computer Vision. Sie könnte dem autonomen Fahren zum Durchbruch verhelfen. Abhinav Valada, Juniorprofessor an der Universität Freiburg und dort Leiter des Robot Learning Lab, beschäftigt sich seit geraumer Zeit mit der Frage, wie es autonomen Fahrzeugen gelingen kann, in für sie unbekannten urbanen Umgebungen sicher zwischen anderen Fahrzeugen und auch Fußgängern zu navigieren. Jetzt unterstützt ihn die Deutsche Forschungsgemeinschaft (DFG) mit einer Emmy-Noether-Nachwuchsgruppe. Ziel der Gruppe um Valada ist es, dateneffiziente und übertragbare Lerntechniken für grundlegende Aufgaben der autonomen Navigation zu entwickeln. 

Empfehlung der Redaktion

01.02.2023 | Im Fokus

Selbstlernende Algorithmen in der Automobilproduktion

Automatisiertes Fahren ist ohne künstliche Intelligenz kaum denkbar. Aber auch in der Automobilproduktion selbst kommt es darauf an, die Eintrittswahrscheinlichkeit künftiger Ereignisse frühzeitig zu erkennen: etwa die Produktion von Bauteilen minderer Qualität oder Wartungsnotwendigkeiten der Maschinen in den Produktionsstraßen. Zur Automobilproduktion mit Weitblick gehört nicht zuletzt das intelligente Zusammenspiel der OEMs mit den Zulieferern.

Damit ein autonomes Fahrzeug ein ganzheitliches Verständnis einer visuell dargebotenen Szene entwickeln und entsprechend "intelligent" agieren kann, muss es lernen, die Komponenten einer Szene semantisch zu gewichten. Welche Pixel eines Bildes gehören zu Personen oder Objekten, die sich im Vordergrund der Umgebung eines selbstfahrenden Autos befinden? Und welche Pixel repräsentieren die Stadtlandschaft? Die Freiburger Forscher suchten nach Antworten auf solche Fragen und fanden die Lösung in einer "effizienten panoptischen Segmentierung". Anfang 2021 stellten Valada und Teamkollege Rohit Mohan die Architektur ihres EfficientPS genannten Verfahrens in der Ausgabe 5-2021 der Zeitschrift International Journal of Computer Vision vor.  

Auf der Website des Freiburger Projekts zeigt die Gruppe um Valada anhand von Beispielen, wie das Team verschiedene KI-Modelle auf unterschiedlichen Datensätzen trainiert hat. Die Ergebnisse werden über das jeweilige Kamerabild gelegt, wobei die Farben zeigen, welcher Objektklasse das Modell den jeweiligen Bildpunkt zuordnet. So sind zum Beispiel Autos blau, Menschen rot, Bäume grün und Gebäude grau markiert. Zusätzlich zeichnet das KI-Modell einen Rahmen um jedes Objekt, das es als separate Einheit betrachtet.

Mit Deep Learning zum Szenenverständnis

Die Aufgabe "Szenenverständnis" lässt sich mit Deep Learning (DL), einer Unterdisziplin des maschinellen Lernens (ML) lösen. "Bei den meisten Verfahren des maschinellen Lernens, einschließlich den tiefen neuronalen Netzen, erfolgt der Ablauf des Lernens nach dem Schema der drei Schritte Prognose, Verlust und Optimierung. Dabei sollen alle Lernverfahren in der Lage sein, den Zusammenhang zwischen den Werten einer Eingabe (x) und den zugehörigen Werten der Ausgabe (y) in den Trainingsdaten zu reproduzieren", erklären Heinz-Adalbert Krebs und Patricia Hagenweiler das prinzipielle Vorgehen im Buchkapitel Künstliche Intelligenz. Bei der Prognose berechnet (prognostiziert) das Modell den Wert einer Ausgabe (ŷ) aus der Trainingseingabe (x), wobei die Modelleigenschaften durch einen Parameter (w) gesteuert werden, dessen Werte zu Beginn zufällig gewählt werden. Anschließend wird der Prognosewert (ŷ) mit dem Ausgabewert (y) in den Trainingsdaten verglichen, woraus der Verlust zwischen den beiden Werten berechnet wird. Im Schritt der Optimierung wird der Parameter (w) so abgeändert, dass der Verlust kleiner wird, vor dem Hintergrund, dass die Prognose eines Modells von dem Wert des Parameters (w) abhängt. "Das Ziel ist, ein Modell mit einem kleinen Verlust zu finden", fassen die Springer-Autoren zusammen. Und: "Der gesamte Vorgang wird als Training bezeichnet. Mit diesem Schema kann ein Modell bestimmt werden, welches aus der Eingabe x die Ausgabe y in den Trainingsdaten mit einem geringen Fehler prognostizieren kann" (Seite 10).

Maschinen prognostizieren und treffen Entscheidungen

Eine spezielle Form und ein Teilbereich des maschinellen Lernens auf der Grundlage künstlicher neuronaler Netze ist das Deep Learning. Mit diesem Werkzeug lassen sich komplexe Daten wie Bilder oder Texte verarbeiten, führen Krebs und Hagenweiler aus. Im Vergleich zu ML-Methoden hat DL demnach zudem den Vorteil, dass mithilfe mehrschichtiger Netzwerke Zusammenhänge erlernt werden könnten, "was einfache Algorithmen des maschinellen Lernens nicht leisteten". Auf der Basis vorhandener Informationen und des neuronalen Netzes kann die Methode des Deep Learning das Erlernte immer wieder mit neuen Inhalten verknüpfen, erklären die Springer-Autoren, und die Maschine lerne so, Prognosen oder Entscheidungen selbstständig zu treffen sowie diese zu hinterfragen: "Entscheidungen können bestätigt oder geändert werden, wobei der Mensch beim eigentlichen Lernvorgang in der Regel nicht mehr eingreift, sondern lediglich dafür sorgt, dass die Informationen zum Lernen bereitstehen und die Prozesse dokumentiert sind. Dies wird erreicht, indem aus den vorliegenden Daten und Informationen Muster extrahiert und klassifiziert werden. Anhand der gewonnenen Erkenntnisse können Daten in einem weiteren Kontext verknüpft werden, sodass die Maschine in der Lage ist, Entscheidungen auf Basis der Verknüpfungen zu treffen" (Seite 14).

Öffentliche Benchmarks spielen eine wichtige Rolle, um den Entwicklungsstand und die Leistungsfähigkeit von KI-Technologien zu messen. "Seit vielen Jahren konkurrieren Forschungsteams von Konzernen wie Google oder Uber um die Spitzenplätze", sagt Rohit Mohan – und verweist mit Stolz darauf, dass EfficientPS bei Cityscapes, einem einflussreichen Benchmark für Methoden zum Szenenverständnis im autonomen Fahren, den ersten Platz erklomm.

Auf dem Weg zu einer menschenähnlichen Wahrnehmung

Inzwischen haben Abhinav Valada und Rohit Mohan einen weiteren Meilenstein auf dem Weg zu einer menschenähnlichen Wahrnehmung für selbstfahrende Autos erreicht, indem sie eine sogenannte amodale panoptische Segmentierungsaufgabe vorgeschlagen und dessen prinzipielle Lösbarkeit gezeigt haben. Wir Menschen haben die bemerkenswerte Fähigkeit, Objekte als Ganzes wahrzunehmen, auch wenn Teile davon verdeckt sind. Diese als amodale Wahrnehmung bekannte Fähigkeit ist das Bindeglied zwischen unserer Wahrnehmung der Welt und ihrem kognitiven Verständnis und ermöglicht uns die Bewältigung des Alltags.

Bislang sind Roboter oder autonome Fahrzeuge auf die modale Wahrnehmung beschränkt, was ihre Fähigkeit, die visuelle Erfahrung des Menschen nachzuahmen, einschränkt. Mit fortschrittlichen KI-Algorithmen könnte die visuelle Erkennungsfähigkeit für selbstfahrende Autos nun revolutioniert werden, ist Valada überzeugt, indem die Wahrnehmung mit amodaler panoptischer Segmentierung den Maschinen ein ganzheitliches Verständnis der Umgebung ermöglicht. Maschinen würden lernen, von der teilweisen Verdeckung von Objekten zu abstrahieren und sie in ihrer Gesamtheit zu erkennen. Kurzum: Die neue Qualität der visuellen Umgebungserfassung wird die Verkehrssicherheit autonom fahrender Autos enorm erhöhen können. Für ihre Arbeit wurden Abhinav Valada und Rohit Mohan im vergangenen September auf der Konferenz AutoSens in Brüssel mit dem Preis "Most Novel Research" ausgezeichnet.

Lesetipp

Mehr zum Thema künstliche Intelligenz in der Automobilproduktion lesen Sie im Beitrag Selbstlernende Algorithmen in der Automobilproduktion aus der MTZ 2-3-2023.

print
DRUCKEN

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

Das könnte Sie auch interessieren

    Premium Partner