Skip to main content
main-content

22.02.2017 | Fahrerassistenz | Im Fokus | Onlineartikel

Wenn das Auto aufs Wort hört

Autor:
Christiane Köllner

Erkennen Autos heute schon einfache Sprachbefehle, könnten sie in Zukunft anhand des Tonfalls wissen, wie sich der Fahrer fühlt. Ein Überblick über die Zukunft der Spracherkennung.

Gestresst am Steuer? Wäre es da nicht da nicht toll, wenn das eigene Auto auf unsere Stimmung reagieren und die Lieblingsmusik abspielen würde? Was heute noch nach Science Fiction klingt, könnte bald vielleicht Realität werden. Ford schätzt, dass bis zum Jahr 2022 fast 90 Prozent aller Neufahrzeuge über Spracherkennungs-Systeme verfügen werden, rund 75 Prozent dieser Autos werden darüber hinaus eine cloud-basierte Sprachsteuerung ermöglichen. Dies ist wiederum eine der Voraussetzungen dafür, dass künftige Assistenzsysteme dank Mikrofonen und In-Car-Kameras auf winzige Veränderungen unseres Gesichtsausdrucks sowie auf die jeweilige Tonlage unserer Stimme reagieren können. Auch Komfort-Details wie die Farbe und Intensität der Cockpit-Beleuchtung lassen sich unserer jeweiligen Stimmung anpassen. Dräxlmaier hat zum Beispiel ein Ambientebeleuchtung entwickelt, die die Illumination nicht nur auf die jeweilige Stimmung des Fahrers einstellt, sondern auch in Zukunft kommunizieren und vor potenziellen Gefahren warnen kann. 

Empfehlung der Redaktion

01.12.2016 | ENTWICKLUNG | Ausgabe 12/2016

Proaktive Assistenzfunktionen für HMIs durch künstliche Intelligenz

Sogenannte Smart Cars und das vernetzte Fahren erschließen nicht nur ungeahnte Möglichkeiten, damit Fahrer, Fahrzeug und andere Menschen interagieren können, sondern erhöhen auch die Anforderungen an eine natürliche und intuitive Bedienung von …

Dank Spracherkennung und künstlicher Intelligenz könnte das Auto also bald wissen, wie sich der Fahrer fühlt und welche Musik er dann beim Autofahren hören möchte. Ein Konzept, an dem auch Honda arbeitet. Die Studie Honda NeuV, die ihre Europapremiere auf dem Genfer Automobilsalon 2017 feiern wird, versucht, die Stimmung des Fahrers zu erkennen und daraufhin den passenden Fahrmodus oder Musik vorzuschlagen. Das Konzeptfahrzeug verfügt über eine "Emotion Engine", einen mit künstlicher Intelligenz versehenen Bordcomputer, der in der Lage sein soll, eigene Emotionen zu entwickeln und so zu einer besseren Kommunikation zwischen Fahrer und Fahrzeug beizutragen. Die Emotion Engine lernt vom Fahrer, indem sie die Emotionen hinter dessen Entscheidungen analysiert und darauf basierend neue Vorschläge und Empfehlungen ausgibt.

Das Auto hört und sieht zu

"Viele Menschen lieben ihre Autos. Durch lernfähige In-Car-Systeme, die sich den Bedürfnissen des Fahrers anpassen, wird die Beziehung zwischen Mensch und Fahrzeug sicherlich noch intensiver", sagt Dominic Watt, Senior Lecturer, Department of Language and Linguistic Science, University of York in Großbritannien. Um eine solche kontextsensitive und adaptive Interaktion zwischen Fahrzeug und Insassen zu erreichen, muss man letztere aber sehr genau beobachten. Daran arbeitet beispielsweise das Projekt InCarIn. Es will einen Beitrag dazu leisten, die Situation und Verfassung aller Fahrzeuginsassen wahrzunehmen und zu interpretieren. Sensoren erkennen dazu Bewegungen und Gesten aller Insassen. Dadurch sollen auf die Situation und die jeweiligen Fahrer zugeschnittene Assistenz-, Informations- und Komfortfunktionen möglich sein. 

"Das Auto wird zu unserem Assistenten und Reisebegleiter, der uns unterwegs zuhören wird. Wir werden vergessen, dass wir letztlich doch nur mit einer Maschine sprechen", sagt Watt voraus. Ein Forschungsprojekt, das Ford derzeit gemeinsam mit der RWTH Aachen betreibt, widmet sich der Verwendung mehrerer Mikrofone zur Verbesserung der Sprachverarbeitung und zur Verringerung der Störung durch Fremdgeräusche. 

Sprachsysteme stellen bald auch differenzierte Fragen

Das Unternehmen Nuance Communications, ein Anbieter von Sprach- und Bild-Bearbeitungslösungen, sagt voraus, dass intelligente Sprachsysteme bereits innerhalb der nächsten zwei Jahre auch differenzierte Fragen stellen können, zum Beispiel: "Soll ich eine weniger befahrene, aber langsamere Route nach Hause wählen?" Mittels Gesten und Augenbewegungen könnten die Fahrer Anrufe entgegennehmen, die Lautstärke des Audio-Systems einstellen und die Navigation auf einer Karte festlegen. Nuance hat dazu im vergangenen Jahr den Dragon Drive Automotive Assistant für vernetzte Autos vorgestellt – einen personalisierten, intelligenten und proaktiven Fahrassistenten.

Fatima Vital, Senior Director, Marketing Automotive, Nuance Communications, die unter anderem bei der Entwicklung des sprachgesteuerten Kommunikations- und Entertainmentsystem Ford Sync mitgewirkt hat, erklärt: 

Wir sind auf dem Weg zur Entwicklung von einfühlsamen Fahrzeugen. Assistenzsysteme könnten den Fahrer bei Stress aufmuntern, auf langen Reisen Tipps geben oder einfach nur an Geburtstage erinnern".

Solche Assistenzsysteme klingen verlockend. Bis sprachgesteuerte Systeme aber soweit sind, um nicht nur die Wörter, sondern auch ihren Sinn zu verstehen und den Kontext einer Unterhaltung zu erfassen, wird es noch dauern. Das liegt daran, dass Computer bislang nur schlecht darin sind, Rückbezüge oder sublinguale Informationen zu erkennen. Mit ODP S3 will Semvox hierzu aber eine Lösung anbieten: Die ontologiebasierte Dialogplattform ODP S3 integriert beliebige Kontextfaktoren und arbeitet mit Mitteln der künstlichen Intelligenz, um sie in einer komplexen Umgebung zu vernetzen und sinnvoll nutzbar zu machen. Im Artikel Proaktive Assistenzfunktionen für HMIs durch künstliche Intelligenz aus der ATZ 12-2016 erläutert Semvox, wie künftigen HMI-Systemen das nötige Wissen und die Fähigkeiten geben werden können, um wie ein menschlicher persönlicher Assistent proaktiv zu agieren.

Ford-Sprachsteuerung erkennt Dialekte

Noch komplizierter wird es, wenn Menschen mit einem mehr oder weniger stark ausgeprägten Dialekt sprechen. Denn bei der Steuerung per Sprache können Dialekte die Erkennung durch das System erschweren. Ford will dem mit der aktuellen Generation des sprachgesteuerten Kommunikations- und Entertainmentsystem Ford Sync 3 entgegenwirken. Das System versteht insgesamt 23 Sprachen inklusive Dialekten wie zum Beispiel australisches, amerikanisches und britisches Englisch oder französisches und kanadisches Französisch. In Zukunft könnten Autos noch erheblich "sprachbegabter" werden, indem sie auf cloud-basierte Dienste zugreifen, prognostiziert Ford.

"In naher Zukunft werden die Fahrer nicht nur in die Lage versetzt, ihre Muttersprache mit oder ohne Akzent für Sprachbefehle zu nutzen, sondern sie können dann auch eigene Formulierungen verwenden, die stets ein Bestandteil der natürlich gesprochenen Sprache sind", betont Mareike Sauer, Voice Control Engineer, Connectivity Application Team, Ford of Europe.

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

01.02.2017 | Titelthema | Ausgabe 2/2017

Ambientebeleuchtung zwischen Illumination und Kommunikation

2015 | OriginalPaper | Buchkapitel Open Access

Wechselwirkung Mensch und autonomer Agent

Quelle:
Autonomes Fahren

2015 | OriginalPaper | Buchkapitel

Der Mensch als Fahrer

Quelle:
Automobilergonomie

Das könnte Sie auch interessieren

Premium Partner

    Bildnachweise