Skip to main content
main-content

23.07.2014 | Technische Informatik | Im Fokus | Onlineartikel

Stimmen aus der Cloud

Autor:
Andreas Burkert
2 Min. Lesedauer

Weil das vernetzte Automobil den Fahrer überfordern könnte, kommen Spracherkennungssysteme ins Spiel, die den Wunsch sozusagen von den Lippen ablesen. Wegen der dafür benötigten hohen Rechenleistung und Speicherkapazität werden cloudbasierte Services eingebunden. Doch allein darauf sollte sich keiner verlassen.

Internetbasierte Infotainment-Systeme befreien den Autofahrer von der Enge seines Fahrzeugs. Damit er allerdings nicht dem bunten Treiben auf dem Display verfällt, nutzen die Unternehmen Sprachsteuerungssysteme. „Sprachdialogsysteme sind dafür ein wichtiger Baustein, die Bedienung von Informations- und Kommunikationssystemen im Auto einfacher und damit auch komfortabler und sicherer zu machen“, schreiben die Springer-Autoren Dominique Massonié und Timo Sowa in „Cloud unterstützt Autos im Dialog mit ihrem Fahrer“

Sie wissen allerdings auch, dass je natürlicher die Sprache akzeptiert wird, umso größer ist der Nutzen. Je mehr Freiheiten die Sprachbedienung dem Fahrer bei der Formulierung seiner Wünsche lässt, umso weniger Einarbeitungszeit in die Systembedienung ist erforderlich. Im Idealfall sind keine Vorkenntnisse notwendig, um die gewünschten Funktionen per Sprache zu steuern. „Natural Language Understanding“ oder kurz NLU ist deshalb ein wichtiges Ziel. Doch die Komplexität erfordert ihren Tribut.

Spracherkennung als hybrides Dialogsystem

So genügt es bei weitem nicht, die zur Sprachanalyse notwendigen softwarebasierten Systeme allein in der Infotainment-Einheit des Fahrzeugs zu platzieren. Um etwa dynamische Inhalte abzurufen– also Namen und Begriffe, die nicht von vornherein im Wörterbuch enthalten sind, sondern sich zum Beispiel aus dem Kontaktverzeichnis des Nutzers ergeben, greifen moderne Systeme auf cloudbasierte Services zurück. Die dort gespeicherten Daten können dann beispielsweise mehrere Tausend Namenseinträge. Da die zur Erkennung notwendige Lautschrift der eingetragenen Namen in der Regel nicht hinterlegt ist, wird sie beim Import solcher Daten ins Infotainment-System anhand von Regeln generiert. Die Autoren sprechen von Phonemisierung und nennen noch weitere Anwendungen.

Weitere Artikel zum Thema

Sie zählen dazu Infotainment-Systeme wie Nachrichten aus Politik und Sport, Spritpreise und ähnliches, „die von der Spracherkennung verstanden werden müssen und die das Sprachdialogsystem bei seinen Ausgaben in Sprache umsetzen können muss.“ Doch Wegen der dafür benötigten hohen Rechenleistung und Speicherkapazität werden cloudbasierte Services eingebunden. „Die Endnutzer kennen solche Lösungen aus der Smartphone-Welt von Systemen wie Apples Siri, Google Now oder Samsungs S-Voice“.
Aus praktischen Erwägungen wird sich die Spracherkennung nie allein auf die Cloud verlassen, sondern mindestens als Fallback eine lokale Implementation besitzen. Die Autoren empfehlen vor diesem Hintergrund eine Hybrid-Architektur, „die einen breiten Katalog an Funktionen lokal bereitstellt und diese um weitere Inhalte und Funktionen aus der Cloud ergänzt“

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

2008 | OriginalPaper | Buchkapitel

Einführung in die Spracherkennung

Quelle:
Sprachverarbeitung

2008 | Buch

Sprachverarbeitung

Grundlagen und Methoden der Sprachsynthese und Spracherkennung

01.12.2012 | Entwicklung HMI | Ausgabe 6/2012

Sprachsteuerung mit semantischer Spracherkennung

Premium Partner

    Bildnachweise