Von autonomen Systemen erhofft sich die Menschheit Wohlergehen. Abhängig vom aktuellen Kontext sollen diese Systeme eigenständig einen Handlungsplan generieren, der ein vorgegebenes Gesamtziel ohne Fernsteuerung und ohne Hilfe menschlicher Operateure erreicht. Allerdings besteht die besondere Herausforderung darin, dass sie auch in ungewöhnlichen, bislang nicht bekannten Situationen sicher ihre Ziele mit den ihnen verfügbaren Ressourcen erreichen müssen. Ein vielversprechender Ansatz, dieses Ziel zu erreichen, ist der Einsatz von Künstlicher Intelligenz.
Immerhin bietet sie bisher ungeahnte Möglichkeiten wie es Klaus Mainzer in seinem Buch "Künstliche Intelligenz – Wann übernehmen die Maschinen?" ab Seite 181 beschreibt. In Kapitel "Von der natürlichen über die künstliche zur Superintelligenz?", zieht er Parallelen zum menschlichen Gehirn und nennt Möglichkeiten, diese etwa mit Hilfe von Neuristoren nachzuempfinden.
Vom Nutzen der Künstlichen Intelligenz ist auch der Informatik-Professor Wolfgang Wahlster vom Deutschen Forschungszentrum für Künstliche Intelligenz in Saarbrücken überzeugt. "Technologien der Künstlichen Intelligenz wie Maschinelles Lernen, automatische Handlungsplanung und intuitive Mensch-Technik-Interaktion sind die wesentlichen Schlüsseltechnologien für die nächste Generation autonomer Systeme.", erklärt Wahlster, der auch Leiter der acatech-Arbeitsgruppe (AG) 5 "Technologische Wegbereiter" des Fachforums zur Hannover Messe "Autonome Systeme – Chancen und Risiken für Wirtschaft, Wissenschaft und Gesellschaft", an der auch Bundesforschungsministerin Johanna Wanka teilnahm.
Autonome Systeme sollen Erfahrungswissen aufbauen
Für die Wissenschaftler ist es ein mittelfristiges Ziel, autonome Systeme kontinuierlich laufen zu lassen, so dass diese Erfahrungswissen über einen langen Zeitraum ohne Unterbrechung aufbauen können. Ein solches semantisches Gedächtnis speichert alle Beobachtungen und Aktionen des Systems und kann zum maschinellen Lernen und zur Selbstoptimierung bis hin zu einer eingeschränkten Selbstreflexion genutzt werden. Besonders bei der Operation in toxischen Umgebungen oder Missionen ohne Rückkehrmöglichkeit für das autonome System ist die sichere Zugriffsmöglichkeit auf dieses als eine Art Black Box realisierte Langzeitgedächtnis für den Systembetreiber von größter Bedeutung.
Autonome Systeme können nicht mit vollständigen und absolut sicheren Repräsentationen ihrer Umgebung operieren, denn sie müssen in bisher nicht explorierten, unzugänglichen, menschenfeindlichen oder durch Katastrophen dramatisch geänderten Umgebungen handlungsfähig bleiben. Autonome Systeme müssen auch Information in Situationen nutzen können, die geprägt sind von Unsicherheit, Vagheit, Unvollständigkeit oder Ressourcenbeschränktheit. Hierbei hat die Grundlagenforschung der Künstlichen Intelligenz in der letzten Dekade unter anderem in den Technologiebereichen Bayessche Netze und Deep Learning enorme Fortschritte gemacht.