Skip to main content

17.11.2017 | Roboter | Schwerpunkt | Online-Artikel

Wenn KI-Kampfroboter gewissenhaft töten

verfasst von: Andreas Burkert

4 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche um passende Fachinhalte oder Patente zu finden.

search-config
print
DRUCKEN
insite
SUCHEN
loading …

Militärische Systeme mit künstlicher Intelligenz können prinzipiell das Ende der menschlichen Zivilisation bedeuten. Forscher fordern ein sofortiges Verbot von intelligenten Kampfrobotern.

Die kurze Meldung, die der russische Vizepremier Dmitri Rogosin bereits im Frühjahr dieses Jahres auf Twitter gepostet hat, sollte die Menschheit beunruhigen. Der Eintrag zeigt den Forschungsroboter FEDOR – bewaffnet. In jeder Hand eine Pistole, feuert die Maschine sicher auf die Zielscheiben ohne auch nur eine zu verfehlen. 

Tweet von Dmitri Rogosin


Weil auch Rogosin die Brisanz seines Posts erkannte, erklärte er wenige Augenblicke später, dass es "bei dem Schießtraining darum geht, dem Roboter zu zeigen, wie man Prioritäten setzt und wie man spontane Entscheidungen fällt. Wir erstellen eine künstliche Intelligenz, nicht den Terminator". 

Empfehlung der Redaktion

2017 | OriginalPaper | Buchkapitel

Müssen wir autonome Killerroboter verbieten?

Lassen sich Maschinen so programmieren, dass sie sich an ethische Prinzipien halten? Die Gesetze der Robotik, die der Schriftsteller Isaac Asimov schon 1942 aufgestellt hat, sind heute aktueller denn je.


Und tatsächlich: Die Systeme des Roboters werden vor allem für den Einsatz in der Raumfahrt entwickelt. FEDOR (Final Experimental Demonstration Object Research) soll ab 2021 verschiedene Aufgaben autark übernehmen. Die dafür notwendigen Algorithmen der Künstlichen Intelligenz müssen allerdings noch optimiert werden. Zwar kann der Roboter bereits komplexe Aufgaben übernehmen wie das Auswechseln von Glühbirnen oder aber Autofahren. Doch hinsichtlich ethischer Regeln und Verhaltensmuster scheint Fedor wie ein noch unbeschriebenes Blatt Papier. Dabei fordern mit Vehemenz führende Wissenschaftler ein Verbot autonomer Kampfroboter.

Verbot von intelligenten Kamprobotern gefordert

Allen voran mahnt Elon Musk vor den Gefahren intelligenter Kampfroboter. Der Chef des Raumfahrtunternehmen SpaceX und des Elektroauto-Herstellers Tesla gehört neben Deepmind-Gründer Mustafa Suleyman zu den prominentesten Unterzeichner eines offenen Briefs an die Vereinten Nationen. Zusammen mit über 100 hochrangigen Vertretern aus der Robotik- und Technologiebranche fordern sie ein striktes Verbot von Kampfrobotern, die von Künstlicher Intelligenz (KI) gesteuert werden.

Die Unterzeichner fürchten eine dritte Revolution in der Kriegsführung. "Wenn Waffen, die sich selbst steuern, einmal verfügbar seien, dann würden Kriege deutlich größer und schneller, als Menschen es begreifen könnten", mahnen sie. Sind solche Systeme erst mal verfügbar, entscheiden allein Roboter über Leben und Tod. Drohnen, Panzern und Kampfrobotern zu entkommen, die von einer KI gesteuert werden und die selbstständig Ziele auswählen und bekämpfen, ist dann wohl unmöglich.

Fukushima der Künstlichen Intelligenz

Drastische Worte findet auch Thomas Metzinger. Der Wissenschaftler ist Leiter des Arbeitsbereichs Theoretische Philosophie an der Universität Mainz und Direktor der Forschungsstelle Neuroethik am dortigen Philosophischen Seminar und spricht von einem "Fukushima der Künstlichen Intelligenz“. In einem Interview, das im Springer-Buch "Unsere digitale Zukunft – In welcher Welt wollen wir leben?" (2017) erschienen ist, warnt er vor einem KI-Wettrüsten durch "wissenschaftliche Forschungsteams, Großkonzerne oder ganze Länder". Seiner Ansicht nach kann "fortgeschrittene Künstliche Intelligenz in den verschiedensten Anwendungsbereichen Gewinn bringend eingesetzt werden."

Ohne verpflichtende Regeln droht laut Metzinger, "prinzipiell sogar das Ende der menschlichen Zivilisation". Verursacht vor allem durch militärische Applikationen. "Je besser die Systeme werden, desto mehr Handlungsautonomie werden die Menschen an sie abgeben müssen. Ein Hauptgrund dafür ist die Tatsache, dass die Übertragungs-, Erkennungs- und Reaktionszeiten intelligenter Waffensysteme immer schneller werden." Diesen Geschwindigkeitsvorteil würde man wieder aus der Hand geben, wenn sich zum Beispiel Schwärme von Kampfrobotern zu oft bei ihren menschlichen Bedienern rückversichern müssten.

Asimovs Gesetze der Robotik von 1942 sind aktueller denn je

Im Herausgeberwerk geht Jean-Paul Delahaye im Beitrag "Müssen wir autonome Killerroboter verbieten?" noch gezielter auf geforderte ethische Grundsätze für KI-Maschinen ein. Er stellt zum Beispiel die heutige Aktualität der "Gesetze der Robotik", die Isaac Asimov ab 1942 bereits vorgeschlagen hatte, heraus: 

  1. Kein Roboter darf die Menschheit schädigen oder durch Untätigkeit zulassen, dass sie geschädigt wird. (Anm. d. Red: Dieses Gestetz wurde als "nulltes Gesetz" nach den drei folgenden von Asimov aufgestellt.)
  2. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
  3. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum Ersten Gesetz.
  4. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder dem Zweiten Gesetz widerspricht.

Jean-Paul Delahaye schreibt dazu: 

Zweifellos sind wir in der Lage, autonome, bewaffnete und mit einer gewissen Intelligenz ausgestattete Tötungsmaschinen zu bauen und zu nutzen. Wir können sie in den Kampf schicken, um Feinde zu suchen, zu identifizieren und zu töten, ohne dass ein einziger Mensch ihre Entscheidung im Einzelnen gutgeheißen hat. Auch wenn heute angeblich stets ein Mensch in den Entscheidungsprozess eingebunden ist, könnte man diese Instanz abschaffen, ohne die Konzeption nennenswert zu verändern. Aber wollen wir wirklich in dieser Richtung weitermachen? Muss nicht vielmehr die Verwendung von derartigen Waffen begrenzt oder gar verboten werden?"
Jean-Paul Delahaye in "Müssen wir autonome Killerroboter verbieten?" aus "Unsere digitale Zukunft" (2017), Seiten 232, f.  

print
DRUCKEN

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

Das könnte Sie auch interessieren

17.10.2017 | Echzeitsysteme | Schwerpunkt | Online-Artikel

Wie intelligent ist eigentlich eine KI?

27.06.2017 | Mensch-Maschine-Interaktion | Schwerpunkt | Online-Artikel

Die Ethik machthungriger Algorithmen