Die Evolution lebender Organismen, nicht zuletzt der Mensch selbst, inspirieren heute die Konstruktion von Robotiksystemen. Springer-Autor Klaus Mainzer hebt in "Künstliche Intelligenz - wann übernehmen die Maschinen?" hervor, dass Maschinen und Roboter, sollen sie direkt in der menschlichen Umgebung wirken können, auf die Umwelt des Menschen, also auf menschliche Proportionen abgestimmt werden müssen. Künftige humanoide Roboter werden also nicht nur zwei Beine und zwei Arme haben – und aussehen wie wir –, sondern auch über optische und akustische Sensoren verfügen, um die Umwelt so wahrnehmen zu können, wie wir Menschen (Seite 141).
Hören können wie wir Menschen. Diesem Ziel hatten sich Forscher in dem europäischen Forschungsprojekt "TWO!EARS" verschrieben. Unter Leitung von Alexander Raake von der Technischen Universität Ilmenau entwickelten mehr als 30 Wissenschaftler aus sechs Ländern ein Testsystem, das Audiosignale ähnlich verarbeitet wie ein Mensch. Das betreffe nicht nur Empfindungen wie Lautstärke, Klangfarbe und räumliche Ausdehnung von Geräuschquellen, sondern auch deren momentane Bedeutung für den Zuhörer, heißt es in einer Mitteilung der TU Ilmenau. Damit das System zum Beispiel in der Lage ist, sich in komplexen Umgebungen mit mehreren Schallquellen akustisch zu orientieren, bezogen die Forscher auch optische Informationen und die koordinative Eigenwahrnehmung in das System ein.
Zwei Teilprozesse der Wahrnehmung
"Die Sinnesphysiologie lehrt, dass jede Wahrnehmung über ein Sinnesorgan aus zwei Teilprozessen besteht", erklären die Springer-Autoren Stefan Hesse und Gerhard Schnell gleich zu Anfang von "Sensoren für die Prozess- und Fabrikautomation": "Der äußere Reiz wird vom Rezeptor in eine Nervenendigung umgesetzt. Der betroffene Nerv leitet das erzeugte elektrische Signal zum Zentralnervensystem (Gehirn) weiter. Dort erst entsteht ein Sinneseindruck (Wahrnehmung, Empfindung). Der Mensch besitzt etwa 109 bis 1011 Rezeptoren" (Seite 1).
Sensoren bilden fünf Sinne des Menschen ab
Inzwischen kennt man in der Technik zahlreiche künstliche Rezeptoren, die Sensoren. Eingebaut in Maschinen, Vorrichtungen, medizinischen Geräten, Anlagen, Fahrzeugen oder Robotern verleihen sie technischen Artefakten die Fähigkeit, eigenständig auf bestimmte Zustände zu reagieren und diese zu kontrollieren. Stefan Hesse und Gerhard Schnell stellen den fünf Sinnen des Menschen entsprechende Sensortypen gegenüber:
Wahrnehmungsvermögen von Mensch und Maschine
Mensch | Sinn | Organ | Sensorik | Erfassung von |
Hören | Gehör | Ohr | Mikrofon | Schall |
Sehen | Licht | Auge | Fotozelle Kamera | Licht Konturen Konturen |
Fühlen | Temperatur Schwere Kraft Tastsinn | Haut Muskel Nerven | Thermometer Waage Dehnmessstreifen Fühler Schalter | Wärme Masse Kraft Drehmoment Form Lage |
Riechen | Geruch | Nase | Rauchmelder | Rauch Gasen |
Schmecken | Geschmack | Zunge/Gaumen | Künstliche Zunge | Inhaltsstoffen |
Bei bisherigen technischen Modellen des Hörens wurden vorwiegend die Schallsignale an den beiden Ohren ausgewertet. Das war der Stand der Dinge zu Beginn des EU-Forschungsprojektes TWO!EARS. Wenn wir Menschen hören, wertet unser Gehirn jedoch nicht nur akustische Signale aus, sondern zum Beispiel auch Informationen, die durch das Sehen oder durch Bewegung gewonnen werden. Und auch bereits vorhandenes, angelerntes Wissen über die Welt fließt in die Bewertung des Gehirns ein. Dieses komplexe Wechselspiel auf Technik zu übertragen, war Ziel des TWO!EARS Forscherteams.
Analyse der Qualität von räumlicher Schallwiedergabe
Raakes Arbeitsgruppe an der TU Ilmenau befasste sich insbesondere mit der Analyse der Qualität von räumlicher Schallwiedergabe durch Systeme wie der Wellenfeldsynthese, die dreidimensionale visuelle Projektionen mit dreidimensionalem Klang kombiniert. Die Ergebnisse des EU-Projekts werden nach Einschätzung der beteiligten Forscher die Entwicklung der Informations- und Kommunikationstechnik stark beeinflussen. So könnten die Algorithmen zum Beispiel dazu dienen, Hörgeräte in Umgebungen mit vielen Sprechern zu verbessern. Ebenso könnten beispielsweise Rettungsroboter entwickelt werden, die nach einer Naturkatastrophe Opfer in einer natürlichen Geräuschumgebung orten.
Akustisches Monitoring
Unterdessen wird akustisches Monitoring und die Steuerung von Maschinen mit Sprache schon für die Praxis in der Fabrik vorbereitet: "Bitte fülle drei Kilogramm Sechskant-Schrauben ab" könnte zum Beispiel ein Kommando heißen, das sich künftig nicht mehr an den Logistikmitarbeiter richtet, sondern an einen sprachgesteuerten Roboter. Und dank einer akustischen Ereigniserkennung könnte dieser Roboter sogar feststellen, ob auch die richtige Sorte Schrauben in den Behälter eingefüllt wird. Dieses vorzuführen, haben sich Forscher des Fraunhofer-Instituts für Digitale Medientechnologie IDMT auf der Hannover-Messe (24. bis 28. April) vorgenommen.