Das autonome Systeme zwangsläufig mit schwierigen Entscheidungen konfrontiert werden, davon sind führende Informatiker mit Wissenschaftlern unterschiedlicher Disziplinen überzeugt. Sie stellen sich die Frage, wie autonome Systeme die richtige Entscheidung treffen, wenn etwa „das
erkennt, dass plötzlich ein Kind auf die Straße läuft, aber ein Ausweichmanöver birgt das Risiko eines Frontalzusammenstoßes mit einem anderen Fahrzeug“. Die Frage nach der Moral von Maschinen, die über künstliche Intelligenz verfügen, ist dieser Tage drängender denn je.Da sich die Forschung zu dieser Thematik noch vorwiegend auf wissenschaftlichen und praktischen Neuland befindet, ist für Wissenschaftler aus unterschiedlichen Ländern Anlass genug, im Rahmen eines internationales interdisziplinäres Seminar auf Schloss Dagstuhl das Thema in alle ihren Facetten zu durchleuchten. Die Teilnehmer, die aus verschiedensten Fachbereichen: von der Informatik und der Mathematik über die Philosophie und Gesellschaftswissenschaften bis hin zu Wirtschafts- und Rechtswissenschaften kommen, suchen dabei nach Antworten, „wie man Maschinen moralisch macht" und "wie man menschliche Kriterien der Moral auf künstliche Intelligenz überträgt"
Auf dem Weg zur Superintelligenz
Für den Informatiker Klaus Mainzer, der die klassische KI‐Forschung seit langem begleitet, stellt sich überdies die Frage, ob „es ein gemeinsames Prinzip gibt, das den evolutionären Systemen (etwa das menschliche Gehirn) zugrunde liegt und das wir uns in der KI zu nutzen machen können“. In Kapitel „Von der natürlichen über die künstliche zur Superintelligenz?“zeigt er sich insbesondere von der „Effizienz neuromorpher Systeme beeindruckt, die in der Evolution entstanden sind“ beeindruckt. Ganz im Gegensatz zu dem Energiehunger moderner Computer mit gigantischen Rechen ‐ und Speicherkapazitäten.
Dennoch sind diese Systeme noch weit davon entfernt, moralisch zu handeln. Um diese Fragen zufriedenstellend zu beantworten, bedarf es systematischer Grundlagenforschung. „Auf der einen Seite müssen wir zunächst allgemeingültige moralische Kriterien entwickeln. Was ist in kritischen Fällen überhaupt die moralisch richtige Entscheidung? Auf der anderen Seite müssen wir die Frage stellen, ob solche Kriterien in Form von Computeralgorithmen umsetzbar sind, und – wenn ja – wie man Computern effektiv diese Kriterien "beibringen" kann“, so eine Sprecherin vom Leibniz-Zentrum für Informatik.
Sie stellt zur Diskussion, ob man zum Beispiel „moralische Kriterien explizit programmieren oder eher flexibel lernende künstliche Intelligenz schaffen soll, die dann – ähnlich wie kleine Kinder – durch Beobachtung und durch "Feedback" moralisches Verhalten erlernen“.