Skip to main content
main-content

26.07.2019 | Automatisiertes Fahren | Nachricht | Onlineartikel

Autonomes Fahren ist eine wissenschaftliche Mammutaufgabe

Autor:
Andreas Burkert
5 Min. Lesedauer

Bevor das autonome Fahren Erleichterung verspricht, müssen die Systeme hinsichtlich Zuverlässigkeit und funktionaler Sicherheit abgestimmt werden. Die TU München zeigt, wie komplex die Aufgabe ist.

Wohl wissend um die Komplexität des Gesamtsystems autonome Automobilität, hat Professor Markus Lienkamp das Vorhaben in sechs Forschungsfelder unterteilt. So steht er anlässlich der Roadshow "Autonomes Fahren" vor einer Tafel, auf der die Begriffe Umfeldwahrnehmung, Planung und Regelung, Mensch-Maschine-Kommunikation, funktionale Sicherheit und Homologation, teleoperiertes Fahren sowie Daten und Testen geschrieben wurden. Die Arbeitsgruppe "Autonomes Fahren" hat am vergangenen Freitag in die Fakultät für Maschinenwesen auf dem Forschungscampus Garching der Technischen Universität München (TUM) geladen, um über die Fortschritte autonom fahrender Automobile zu berichten.

Für Lienkamp, der den Lehrstuhl für Fahrzeugtechnik der Technischen Universität München leitet, bot der Tag auch die Möglichkeit, der anwesenden Politik den Stand der Technik und die Vorteile des autonomen Fahrens zu erklären: "Weniger Unfälle, kaum noch Staus und schließlich entspannt am Ziel ankommen", zählt er auf. Auf unserer Nachfrage, ob dies noch immer die vorrangigen Ziele des autonomen Fahrens sind, erklärt er, dass datengetriebene Geschäftsmodelle mittlerweile sehr stark in den Fokus der Automobilhersteller gerückt sind.

Bis allerdings damit das große Geld verdient wird, dauert es noch. Lienkamp gibt zu, dass noch "einige Hürden zu überwinden sind, bis Fahrer und Fahrerinnen das Steuer an die künstliche Intelligenz abgeben können". In der Grundlagenforschung aber ist man zuversichtlich, alle technischen Herausforderungen meistern zu können. Im Mittelpunkt steht dabei die Perzeption.

Das autonome Automobil braucht Wahrnehmung

Konkret geht es um die Wahrnehmung, das Erkennen des Fahrzeugumfelds und der korrekten Einschätzung der Situation. Gelingt dies nicht mit hinreichender Genauigkeit, ist das autonome Fahren ein riskantes Unterfangen. Gleich mehrere Lehrstühle befassen sich mit dem Thema und haben für das Erproben einer hochgenauen Umfelderkennung zusammen mit Wissenschaftlern der Forschungseinrichtung Fortiss ein Fahrzeug mit Kameras, Radar und einem Laserscanner ausgestattet, um die Umgebung digital hochgenau abzubilden. Das Ergebnis ist eine detaillierte dreidimensionale Punktewolke der Umgebung. 

Noch faszinierender scheinen die Aufnahmen von Artisense. Das Unternehmen entwickelt Hardwaresysteme mit Kameras, GPS-Sensorik und Softwarealgorithmen, die aus den Daten einer einzigen Kamera eine nahezu realistische Abbildung in 3-D der Umgebung errechnet. Wie uns Professor Daniel Cremers erzählt, baut die Software auf dem auf, "was wir an der TU München entwickelt haben". Cremers ist Chief Science Officer bei Artisense und ein hochdekorierter Informatikprofessor der TUM. Als Leibniz-Preisträger wurde er vor kurzem in die Gelehrtengemeinschaft der Bayerischen Akademie der Wissenschaften (BAdW) gewählt. Damit haben die Mitglieder der Akademie Cremers‘ richtungsweisende Forschungsarbeit auf dem Gebiet der mathematischen Bildverarbeitung und Mustererkennung ausgezeichnet.

Maschinen interpretieren Bilddaten

Der Wunsch des Informatikers ist es, dass Maschinen künftig Bilddaten selbst analysieren und interpretieren lernen. Eine wesentliche Voraussetzung dafür ist die sogenannte Computervision, die zentral ist für die Entwicklung autonomer Fahrzeuge und Roboter. Wie das in der Realität funktioniert, hat er auf dem Campus vorgeführt. Mit einer Kamera auf dem Fahrzeug ist er um den Block gefahren und hat in Echtzeit die ganze Umgebung in 3-D abbilden können, inklusive der Trajektorien: "Wir erfassen nicht nur die 3-D-Welt, sondern auch lernen auch, wie wir uns am besten durch diese 3-D-Welt bewegen."

Damit die autonomen Fahrmanöver künftig jede Situation beherrschen, forschen die Wissenschaftler des TUM-Projekts "Imagine" an Verfahren der Unfallvermeidung. Imagine steht dabei für "Intelligente Manöver Automatisierung – kooperative Gefahrenvermeidung in Echtzeit". Um die Erkenntnisse möglichst schnell erproben zu können, hat der Lehrstuhl für Fahrzeugtechnik den Hardware-Aufbau und die komplette Software für ein Modellfahrzeug im Maßstab 1:10 entwickelt. Das Fahrzeug ist mit diversen Sensoren und mehreren Recheneinheiten ausgestattet, die einem realen Serienfahrzeug nachempfunden sind.

Getestet werden die Algorithmen an Modellfahrzeugen

Das erlaubt kurze Entwicklungszyklen bei der Entwicklung von Algorithmen für das automatisierte Fahren, da die Software ohne großen zeitlichen und finanziellen Aufwand auf den Modellfahrzeugen getestet werden kann. Gleiches gilt für Versuche mit mehreren Fahrzeugen in einem Szenario. Ein erst auf den zweiten Blick wichtiger Forschungsschwerpunkt ist die Akzeptanz selbstfahrender Fahrzeuge, also das Miteinander von autonom fahrenden Automobilen und anderen Verkehrsteilnehmern.

Wer heute die Straße quert, nimmt in der Regel den Blickkontakt zum Fahrer auf. Beim autonomen Auto muss das Fahrzeug selbstständig anzeigen, dass er Situation erkannt hat. Für Professor Klaus Bengler, vom Lehrstuhl für Ergonomie, eine Herausforderung. Die Ansätze sind dabei weiter gedacht, als es die Straßenverkehrsordnung heute zulässt. So projiziert ein Demonstrator eine bläuliche Haltelinie auf die Straße, um Fußgänger zu signalisieren, wann er loslaufen kann. Das soll allen Teilnehmern mehr Sicherheit geben. Oder suggerieren.

Garantierte Sicherheit ist ein heikles Thema

Denn bei dem Thema funktionale Sicherheit wie auch später bei der Freigabe autonomer Fahrfunktionen, sieht Lienkamp noch großen Handlungsbedarf. "Um wirklich sicher zu sein, müssen wir einen enormen Aufwand treiben. Entweder virtuell über sehr viele Testfälle, die wir immer wieder variieren wie auch über reale Testsituationen". An der Stelle arbeitet die TUM mit zahlreichen Unternehmen zusammen, unter anderem mit TÜV Süd. Wie komplex das Unterfangen ist, erklärt Informatik-Professor Matthias Althoff, der seit Jahren in dem Bereich forscht. 

Weil aber auch er genau weiß, dass es mehr Situationen im realen Verkehr gibt, als es "Atome im Universum gibt", müssen die Computerprogramme automatisch die wichtigen Testfälle erkennen. Althoff wie auch Lienkamp erwarten deshalb, dass es noch eine lange Zeit beanspruchen wird, bis das autonome Fahren auf allen Strecken und bei allen Witterungen möglich ist. "Diese Illusion möchte ich Ihnen hier nehmen", so Lienkamp und fordert auf, auch darüber nachzudenken, ob das "vollautonome Fahren nicht auch mehr Verkehr verursacht, weil die Leute das im Staustehen nicht mehr als störend empfinden".

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

01.02.2019 | Entwicklung | Ausgabe 1-2/2019

Automatisiertes Fahren - Vernetzte Sicherheit im Straßenverkehr

01.07.2019 | Titelthema | Ausgabe 7-8/2019

"Kritische Situationen simulativ herbeiführen"

Das könnte Sie auch interessieren

Premium Partner

    Bildnachweise