Skip to main content
main-content

25.09.2017 | Automatisiertes Fahren | Nachricht | Onlineartikel

Software für hochautomatisiertes Fahren vor Praxistest

Autor:
Martin Westerhoff
1:30 Min. Lesedauer

Nach zwei Jahren Entwicklung geht das Forschungsprojekt Robust Sense in die Praxiserprobung. Die Softwareplattform soll hochautomatisiertes Fahren ohne neue Hardware robuster und präziser machen.

Schlechte Sichtverhältnisse bei Regen oder Schnellfall sind nicht nur für Menschen, sondern auch für hochautomatisierte Fahrzeuge eine große Herausforderung. Das vor zwei Jahren gestartete europäische Forschungsprojekt Robust Sense steht nach Angaben des Geschäftsbereichs Smart Mobility am Fraunhofer Fokus nun kurz vor der Praxiserprobung auf dem Berliner Testfeld für hochautomatisiertes Fahren. Bislang haben die Forscher gemeinsam mit 14 weiteren Partnern, darunter Daimler und Bosch, eine Softwareplattform entwickelt und virtuell in einem Fahrsimulator getestet.

Kameras sind störanfällig

Die Softwareplattform soll eine robuste und zuverlässige Wahrnehmung der Straßensituation, unabhängig von der Komplexität und den Sichtverhältnissen, gewährleisten. Um die Umgebung robust erfassen zu können, benötigen Assistenzsysteme und Fahrzeuge neben genauem und hoch auflösendem Kartenmaterial vor allem optische Sensoren, die bereits in verschiedenen Formen zum Einsatz kommen. Kameras unterstützen in Assistenzsystemen das automatische Halten der Spur bei einer Fahrt auf der Autobahn, erfassen auch kleine Hindernisse und leiten bei hochautomatisierten Fahrzeugen, wenn nötig, den Bremsvorgang ein. Doch besonders Kameras sind bei der Objekterfassung und -erkennung störanfällig: bereits das starke Gegenlicht der Sonne oder Wetter wie Regen und Schneefall können dazu führen, dass Hindernisse, andere Fahrzeuge oder Personen zu spät oder gar nicht von den Systemen erfasst werden.

Um diese Nachteile auszugleichen, kombinieren die Forscher die Sensordaten der Kamera mit der Positionsbestimmung von Laser- und Radarsystemen. Die Laserstrahlen und Radarwellen erfassen Hindernisse oder Verkehrsteilnehmer genauer als die Berechnung auf der Grundlage von Kamerabildern. Um was für ein Objekt es sich handelt, können sie allerdings nicht bestimmen. Die Fraunhofer-Forscher nutzen daher Sensordaten aus verschiedenen Quellen, um die Wahrnehmung sowie der Wettersituation angepasste Fahrmanöver zu gewährleisten. Für die virtuelle Erprobung wurde die Simulationsumgebung VSimRTI von Fraunhofer Fokus genutzt.

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

Das könnte Sie auch interessieren

Premium Partner

    Bildnachweise