Skip to main content
Top

25. Zum aktuellen Stand des weltweiten militärischen Einsatzes Künstlicher Intelligenz

  • Open Access
  • 2026
  • OriginalPaper
  • Chapter
Published in:

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Streitkräfte nutzen Künstliche Intelligenz (KI) bislang vorwiegend in evolutionärer, nicht revolutionärer Weise. Im Vordergrund steht die Absicht, bestehende Missionen und Verfahren mit KI zu verbessern. Vor diesem Hintergrund diskutiert das Kapitel in vergleichender Weise den Einsatz von KI in 25 Ländern. Dazu zeigt das Kapitel auf, wie diese Länder über KI im militärischen Kontext denken, wie sie sich hierzu organisieren, welche Forschungs- und Einsatzschwerpunkte sie verfolgen, welche Finanzmittel sie bereitstellen und wie sie Ausbildung und Training anpassen, um die Streitkräfteangehörigen auf den KI-Einsatz vorzubereiten.
Dieses Kapitel analysiert, wie Streitkräfte gegenwärtig Künstliche Intelligenz (KI) nutzen, um vorhandene militärische Fähigkeiten und Technologien weiterzuentwickeln und sich auf neue Herausforderungen vorzubereiten. Die Ergebnisse bestätigen Erwartungen, die sich aus der umfassenden Literatur zu militärischer Innovation ableiten, führen zu überraschenden Einsichten und fördern auch unbequeme Erkenntnisse zu Tage.
Dazu stützt sich der Aufsatz auf den kürzlich veröffentlichten Sammelband The Very Long Game (Borchert et al., 2024). Dieser diskutiert die Einführung, Entwicklung und Nutzung militärischer KI in Dänemark, Deutschland, Estland, Griechenland, Finnland, Frankreich, Italien, Kanada, den Niederlanden, Schweden, Spanien, der Türkei, im Vereinigtem Königreich, in den USA sowie Australien, China, Indien, Iran, Israel, Japan, Südkorea, Russland, Singapur, Taiwan und der Ukraine, um die Dynamik auf verschiedenen strategischen Schauplätzen zu erfassen.
Das Kapitel positioniert sich an einer Nahtstelle, an der Konzepte zu strategischen Sicherheitsstudien, zu militärischer Innovation und zu Kultur- und Organisationswandel sowie Untersuchungen des rüstungsindustriellen Komplexes aneinandergrenzen. Indem das Kapitel nicht über die möglichen Folgen des Einsatzes von KI durch die Streitkräfte spekuliert, sondern den aktuellen Sachstand in 25 unterschiedlichen Ländern darstellt, schließt es eine Lücke in der Literatur.
Konzentriert man sich auf eine Auswahl von Publikationen, die in den letzten drei bis fünf Jahren erschienen sind, lassen sich drei Gruppen ausmachen. Die erste Gruppe umfasst eine rasch steigende Zahl an Veröffentlichungen, die allgemeine Analysen zu möglichen militärischen Auswirkungen der KI-Nutzung präsentieren. Zu dieser Gruppe gehören Bücher wie Army of None und Four Battlegrounds von Paul Scharre (2019, 2023), Johnsons Analyse des Zusammenspiels zwischen militärischer KI, künftigen Kriegen und strategischer Stabilität (2021) und Kenneth Paynes I, Warbot (2021). Überlegungen zu den möglichen Auswirkungen von KI auf die internationale Stabilität und die Rolle der Rüstungskontrolle zur Verhinderung eines „KI-Wettrüstens“ gehören ebenfalls zu dieser Gruppe (Cummings, 2018; Diehl & Lambach, 2022; Horowitz, 2018; Horowitz et al., 2018; Horowitz & Scharre, 2021; Scharre & Lamberth, 2022; Scharre, 2021). Da sich diese Ausarbeitungen mehrheitlich für das Zusammenspiel zwischen militärischer KI und grundlegenden strategischen Fragestellungen interessieren, betrachten sie meist nur eine begrenzte Anzahl von Ländern. Zahlreiche Abhandlungen dieser ersten Gruppe befassen sich zudem auch mit der Kombination unbemannter Systeme mit KI und den daraus resultierenden ethischen Folgen sowie dem regulatorischen Handlungsbedarf, um ungewollte Proliferation zu vermeiden.
Die zweite Gruppe von Untersuchungen thematisiert spezifische Aspekte militärischer Veränderungen, die sich aus dem Einsatz von KI ergeben können. Zu dieser Gruppe gehören unter anderem das Buch von Sam Tangredi und George V. Galdorisi über KI und Seekriegsführung (2021) und die Untersuchung von Jensen et al. (2022) zu den Rahmenbedingungen militärischer Innovation im Informationszeitalter. Diese Texte untersuchen, welcher Mehrwert aus dem Einsatz von KI für militärische Operateure resultieren kann. Sie thematisieren auch Aspekte der Theorie- und Konzeptentwicklung im Licht der allgemeinen Digitalisierung der Streitkräfte und der Rolle von KI. In diesem Sinne untersucht Lin-Greenberg (2020) die Auswirkungen von KI auf die Entscheidungsfindung internationaler Koalitionen, während Lindsay (2023/24) den institutionellen Kontext für KI-gestützte militärische Innovationen beleuchtet. Analysen der Risiken, die von militärischer KI ausgehen, bilden eine wichtige Untergruppe, beispielsweise mit Arbeiten, die sich auf die Abwehr von algorithmischer Aufklärung (Phillips & Pohl, 2021) oder den Einsatz von KI in Wargames (Barzhaskha, 2023) konzentrieren. Diese Arbeiten stellen ebenfalls Verbindungen mit der Diskussion zur Ethik militärischer KI her (CIGI, undatiert; Hofstetter & Verbovzsky, 2023; Galliott & Scholz, 2020; Stanley-Lockman, 2021; Rowe, 2022).
Die dritte Gruppe von Publikationen verfolgt einen vergleichenden Ansatz, indem sie sich auf die spezifischen Ansätze in verschiedenen Ländern konzentriert. Artificial Intelligence, China, Russia, and the Global Order, herausgegeben von Nicholas D. Wright (2019), stellt ein Beispiel dar, das zwei Länder vergleicht, dabei aber keinen umfassenden analytischen Ansatz vorlegt. Im Gegensatz dazu finden sich in The AI Wave in Defense Innovation. Assessing Military Artificial Intelligence, Strategic Capabilities and Trajectories, herausgegeben von Raska und Bitzinger (2023), Fallstudien zur militärischen KI in den USA, China, Russland, Japan und Südkorea sowie Australien. Ferner befasst sich ein Kapitel mit dem Einsatz militärischer KI in Europa mit Schwerpunkt EU/NATO.
Wie dieser kurze Überblick verdeutlicht, konzentriert sich der Großteil der Literatur auf allgemeine Fragen, während komplexere Fragestellungen, die untersuchen, wie Länder über militärische KI nachdenken, wie sie sich auf ihre Einführung vorbereiten und wie sie bestehende Konzepte, Strukturen und Prozesse entwickeln und die entsprechenden Fähigkeiten ausbauen, in den Hintergrund treten (Goldfarb & Lindsay, 2021/22, S. 11). Genau diese Lücke schließt der vorliegende Aufsatz.
Die Analyse basiert dabei auf der Feststellung, dass die Verwendung von KI – wie auch anderen Technologien – zwar grundsätzlich militärische Innovation herbeiführen kann (Borchert et al., 2021, S. 13–17), es jedoch in der Regel schwierig zu bestimmen ist, welche Veränderung eines militärischen Konzepts, eines Organisationsansatzes oder eines neuen Verteidigungssystems innovativen Fortschritt hervorbringt. Hinzu kommt, dass allein der Blick auf technologische Veränderungen nicht ausreicht, um zu erklären, welche Faktoren militärische Veränderungsprozesse erfordern bzw. bedingen. Vielmehr ist es notwendig, technische Überlegungen und Entwicklungen in den größeren kulturellen, konzeptionellen und organisatorischen Kontext einzubetten. Deswegen versteht dieses Kapitel militärische KI als sozio-technisches Phänomen, das einen breiten analytischen Rahmen erfordert, und verwendet in der Folge einen umfassenden Ansatz, der sich an den DOTLMPFI-Handlungsschwerpunkten1 orientiert, um zu erörtern, wie Nationen
  • über militärische KI nachdenken, um zu veranschaulichen, wie bestehende militärische Konzepte den Einsatz militärischer KI definieren und gestalten;
  • militärische KI entwickeln, um die aktuellen Forschungs- und Entwicklungsschwerpunkte für militärische KI für das nationale KI-Ökosystem im Verteidigungsbereich darzustellen;
  • militärische KI organisieren und dazu Strukturen und Prozesse anpassen oder einführen, um militärische KI zu nutzen;
  • militärische KI finanzieren, um Ausgabenprioritäten hervorzuheben;
  • militärische KI einsetzen und betreiben, um einen Überblick darüber zu gewinnen, inwieweit KI bereits zur Unterstützung bestehender militärischer Missionen eingesetzt wird;
  • die Streitkräfteangehörigen in Ausbildung und Training auf eine Zukunft mit militärischer KI vorbereiten, in der kognitive mit maschineller Intelligenz zusammenarbeitet.

25.1 KI für Streitkräfte: Was ist damit gemeint?

KI ist zwar ein populärer Begriff, aber seine Definition erweist sich als komplex und uneinheitlich. Die meisten der untersuchten Streitkräfte orientieren sich an der Definition des US-Verteidigungsministeriums (Department of Defense, 2018), wonach KI „the ability of machines to perform tasks that normally require human intelligence“ bezeichnet. Diese Definition ist einfach, kann aber auch kontrovers ausgelegt werden, weil sie Menschliches und Maschinelles in einen potenziellen Gegensatz zueinander stellt und damit die in allen untersuchten Ländern dominierende Vorstellung in Frage stellt, dass Menschen in jeder Situation das Handeln von Maschinen – und damit eben auch maschinelle Entscheidungen – überwachen und kontrollieren müssen. Dieses Kapitel folgt daher dem Vorschlag von Brandlhuber (2021, S. 6), der einen anderen Schwerpunkt setzt und KI als Hardware- und Softwaresysteme definiert, die sich zur Lösung von Problemen und Entscheidungen unterschiedlicher Denkmechanismen bedienen, ohne dass die Lösungen, die diese Systeme erreichen sollen, vorprogrammiert werden müssen.
Hierzu bedient sich die KI verschiedener Methoden, wobei sich ein Großteil der Literatur auf das maschinelle Lernen (ML) konzentriert. ML basiert auf der Prämisse des Lernens aus Daten, wozu Algorithmen auf Trainingsdatensätzen operieren und KI-Modelle generieren (Allen, 2020, S. 3). Dieses Konzept hat sich aufgrund der Verbreitung digitaler kommerzieller Geschäftsmodelle, die auf die Nutzung von (Verbraucher-)Daten abzielen, sowie aufgrund der raschen Verbesserung der Computerressourcen zur Verarbeitung großer Datenmengen sehr schnell durchgesetzt und etabliert. Die Fokussierung auf ML hat jedoch zu einer verengten Sichtweise auf KI geführt.
Eine zentrale Herausforderung liegt in der übermäßigen Fokussierung auf Daten. Der implizite Referenzrahmen sind dabei digitale Geschäftsmodelle für Verbraucheranwendungen, die darauf basieren, dass Nutzerinnen und Nutzer ihre Daten als Gegenleistung für digitale Services bereitstellen. Zudem streben Digitalunternehmen danach, weitgehend modellfrei zu arbeiten, indem KI-Systeme expertisebasierte und ingenieurwissenschaftliche Prozesse automatisieren und skalieren sollen. Daher sollen ML-Systeme große Datenmengen verarbeiten, um ein gewünschtes Verhaltensmuster zu reproduzieren.
Diese datenzentrierte Logik dominiert auch das aktuelle militärische Denken. Alle untersuchten Streitkräfte interpretieren Daten als ihr wichtigstes strategisches Gut und richten ihre Datenstrategien darauf aus, diesen „Datenschatz“ zu heben, auch durch Investitionen in leistungsfähige Hardware. Streitkräfte operieren jedoch nicht in einem Verbraucherumfeld, in dem Daten im Überfluss bereitgestellt werden. Vielmehr kämpfen sie mit Datenknappheit.2 Datenzentrierte Ansätze sind ressourcenintensiv und erfordern Personal, Rechenleistung, Energie, Infrastruktur, Bandbreite und Aufnahmezeit, die im Kriegsfall noch knapper werden (Chahal et al., 2020, S. 10–13; Michel, 2023, S. 16–21). Paradoxerweise sind sie auch vergangenheitsorientiert, d. h. die Streitkräfte können nur das auswerten, was gesammelt wurde. Die gesammelten Daten können zwar die Dynamik der Vergangenheit beschreiben, nicht aber die dynamischen Funktionsprinzipien der physischen Umgebung, in der die Streitkräfte operieren (Borchert et al., 2023a, b, S. 47).
Im Gegensatz zu dieser prominenten Ansicht sollten sich militärische Nutzer der Tatsache bewusst sein, dass KI als Allzwecktechnologie (Horowitz, 2018, S. 39–41; Scharre, 2023, S. 3) einen „Sack voller Methoden“ (Hofstetter, 2014, S. 136–142) darstellt und einige dieser Methoden besser geeignet sind als andere, um militärische Aufgaben zu lösen. Daher ist es wichtig, genau zu wissen, welche Methode für welche Aufgabe am besten geeignet ist, um die Ziele festzulegen, die die militärische KI erreichen soll. Dazu können vier allgemeine Ansätze unterschieden werden (Brandlhuber, 2021, S. 14; Allen, 2020, S. 4):
  • Unsupervised Learning erfordert keine Kennzeichnungen der verwendeten Daten und ist hilfreich bei der Datenanalyse, der Erkennung von Anomalien oder der automatischen Kodierung.
  • Supervised Learning verwendet vom Menschen gekennzeichnete Daten und kommt z. B. in der Sprach- oder Bilderkennung, Videoanalyse, automatisierten Übersetzung und der Klassifizierung von Signalen zum Einsatz.
  • Reinforcement Learning ermöglicht es KI-Agenten, Daten auf der Grundlage der Interaktion mit dem jeweiligen Umfeld zu generieren, in dem sie agieren, und ist für die optimale Abfolge mehrstufiger Aktionen, Absicherungsstrategien zur Unterstützung des Risikomanagements oder strategische Entscheidungen von entscheidender Bedeutung.
  • Schließlich ergeben sich Kooperation und Emergenz aus KI-Agenten, die mit ihrer Umgebung interagieren und Entscheidungen sowie ihre Folgen antizipieren können, um z. B. das dynamische Ressourcenmanagement (beispielsweise zur Verbesserung der Sensorfähigkeiten), die optimale Ressourcenteilung (wie optimale Zuweisung von Sensoren und Effektoren zur Bekämpfung von Zielen) oder die effiziente Routenplanung zu unterstützen.
Auf dieser Grundlage unterscheidet die Defense Advanced Research Projects Agency (DARPA) des US-Verteidigungsministeriums drei Wellen der KI (DARPA, o. J.; Borchert et al., 2023a, b, S. 27): Die erste Welle basiert auf menschlicher Expertise, d. h. Menschen entwickeln Expertensysteme, die menschliches Fachwissen in maschinenlesbare Regeln übersetzen und befolgen. Die zweite Welle basiert auf statistischem Lernen. Hier kommen statistische und probabilistische Methoden zum Einsatz, um neuronale Netze z. B. für Klassifizierungsaufgaben zu trainieren. Zur dritten Welle zählen schließlich Systeme, die kontext- und konsequenzbewusst agieren können. Diese Systeme verfügen über ein Lagebewusstsein, das sie in die Position versetzt, die Folgen des eigenen und gegnerischen Handelns zu antizipieren und entsprechend zu agieren.
Der Übergang von der zweiten zur dritten Welle markiert einen kritischen Wendepunkt, insbesondere weil KI in der dritten Welle selbst lernen kann. Lösungen der ersten und zweiten Welle fokussieren auf Mustererkennung in großen Datenmengen mittels Klassifizierungs- und Regressionsverfahren. Die KI der dritten Generation hingegen ist bestrebt, Lösungen zu entwickeln, die lernen, wie man am besten lernt, indem sie komplexe und mehrstufige Entscheidungen treffen, die dem jeweiligen Einsatzumfeld, den Missionsaufgaben und den allgemeinen Einsatzregeln angemessen sind. Dies ist für die militärische KI von zentraler Bedeutung, denn das für ML wichtige Reinforcement Learning hat zwar in idealtypischen Spielen mit perfekten Informationen beeindruckende Leistungsergebnisse erbracht (Silver et al., 2017; Vinyals et al., 2019). Jedoch sind unvollkommene Informationen und Unsicherheit typisch für militärische Operationen. Deshalb muss die KI der dritten Welle beispielsweise der Tatsache Rechnung tragen, dass taktische militärische Entscheidungen entlang einer Entscheidungssequenz getroffen werden, bei der frühere Entscheidungen für spätere Entscheidungen von Bedeutung sind, Nichtentscheidungen die künftige Handlungsfreiheit eines Kommandeurs erheblich einschränken können und gegnerische Operationen im elektromagnetischen Spektrum Sensoren stören oder sogar neutralisieren können und somit das Lagebewusstsein und das Lageverständnis beeinträchtigen. KI der dritten Generation muss daher in der Lage sein, diesen missionsrelevanten Kontext zu interpretieren, um zu vermeiden, dass Entscheidungen getroffen werden, die den Erfolg der Mission in späteren Phasen beeinträchtigen.
Um mit diesen Herausforderungen umzugehen, bieten sogenannte Markov-Entscheidungsprozesse einen mathematischen Rahmen an. Sie modellieren Entscheidungsprozesse in dynamischen Umfeldern, in denen sich der Systemzustand als Reaktion auf Handlungen von Agenten stochastisch verändert (Littman, 2001). Ebenfalls relevant ist das Adversarial Learning zur Verbesserung der Robustheit von ML (Bai et al., 2021). Von Bedeutung ist auch das Transfer-Lernen (Zhuang et al., 2019), damit militärische KI-Lösungen, die in einem virtuellen Gefechtsfeld3 entwickelt wurden, in die physische Realität übertragen werden können. Zusätzlich von Bedeutung ist auch das Meta-Lernen (Vettoruzzo et al., 2023), das es ermöglicht, Entscheidungsstrategien entsprechend einer nicht stationären, sich im Laufe der Zeit verändernden Einsatzumgebung weiterzuentwickeln. In der Summe befasst sich KI der dritten Welle mit Lösungen für Entscheidungsprozesse, die auf Emergenz und nicht auf Linearität basieren, um auch auf Unvorhergesehenes adäquat reagieren zu können (Mintzberg et al., 2005, S. 177; Popescu, 2018). Emergenz betont dabei insbesondere auch die Fähigkeit zu experimentieren, um gleichzeitig neue Wege zu erkunden und bestehende zu nutzen (Reeves et al., 2013).
Diese differenzierte Betrachtung der drei KI-Wellen gibt Aufschluss darüber, welchen Mehrwert militärische KI für Streitkräfte erbringen kann. Gegenwärtig konzentriert sich die überwiegende Zahl der Länder auf Anwendungen der zweiten Welle. Diese Ansätze betonen die zentrale Rolle von Daten und digitalen Plattformen. Sie sind in einem stabilen und kontrollierten Umfeld durchaus von Wert, um Skalierungseffekte mit meist zentralisierten Lösungen zu nutzen. Das militärische Umfeld ist jedoch inhärent instabil und nur beschränkt kontrollierbar. Daher erfordert der erfolgreiche Einsatz von KI in diesem Umfeld Ansätze der dritten Welle, welche dezentrale, das Selbstlernen ermöglichende Lösungen erschließen (Bousquet, 2022, S. 210–211).

25.2 Wer macht was, warum und wie?

Bevor dieser Abschnitt die wichtigsten Erkenntnisse aus den 25 Fallstudien zusammenfasst, ist der methodische Hinweis wichtig, dass die Untersuchung auf offenen Quellen basiert und den Sachstand Ende 2023 bzw. Anfang 2024 spiegelt. Die Ausführungen stellen daher eine Momentaufnahme dar, die notwendigerweise selektiv und summarisch ist.

25.2.1 Denken und Konzepte

Die untersuchten Länder machen sehr allgemeine Angaben zu den konkreten Zielen, die mit militärischer KI erreicht werden sollen. Die Mehrheit der (strategischen) Dokumente verweist auf generische Mehrwerte, wie z. B. die Möglichkeit, mit KI große Datenmengen auswerten oder eigene Entscheidungsabläufe beschleunigen zu können. Die Mehrheit der untersuchten Länder konzentriert sich darauf, mit KI bestehende Fähigkeiten und Technologien zu verbessern, anstatt umfassend auszuloten, wie der Einsatz von KI dazu beitragen könnte, militärische Aufgaben auf eine neue Art und Weise zu lösen. Diese auf den ersten Blick überraschende Einsicht erklärt sich, wenn man die Treiber der Konzepte der militärischen KI-Verwendung näher betrachtet.

25.2.1.1 Strategische Beweggründe

Es gibt drei zentrale Beweggründe, weshalb die untersuchten Nationen wollen, dass ihre Streitkräfte KI nutzen. Zur ersten Gruppe zählen Nationen, die einem bedrohungsorientierten Ansatz (Tab. 25.1) folgen. Sie sehen sich entweder mit einem strategischen Herausforderer oder einer komplexen Kombination unterschiedlicher Risikofaktoren konfrontiert und interpretieren KI als Instrument, um diese zu adressieren. Die Paradebeispiele sind China und die Vereinigten Staaten, die sich gegenseitig als Hauptherausforderer sehen und militärische KI nutzen wollen, um den jeweils anderen in Schach zu halten. Die gleiche Logik gilt für Russland sowie benachbarte Länderpaare wie Griechenland und die Türkei, Südkorea bzw. Japan in ihren jeweiligen Beziehungen zu China und Nordkorea sowie die Ukraine und Russland. Auch Israel und Indien agieren unter diesem Blickwinkel, wobei ihre Sichtweise zusätzlich von regionalen Faktoren beeinflusst wird. Indien ist beispielsweise besorgt, dass militärische KI anderen Nationen die Möglichkeit geben könnte, das Land zu dominieren, was Neu-Delhi dazu veranlasst, in einheimische Lösungen zu investieren. Eine ähnliche Logik gilt für Iran, der Israel, die Vereinigten Staaten und ihre Verbündeten in der Region als existenzielle Bedrohung ansieht und daher ebenfalls eigene militärische KI-Entwicklungen fördern will. Taiwan schließlich stellt einen Sonderfall dar, da hier alle drei strategischen Motive eine Rolle spielen, wobei die Bedrohung durch China die wichtigste Triebfeder darstellt.
Tab. 25.1
Drei strategischer Treiber militärischer KI
Angst, etwas zu verpassen (FOMO)
KI als Fähigkeitsmultiplikator
Bedrohungsbasiertes Denken
DNK, FRA, GRE, ITA, TWN
AUS, CAN, DEU, DNK, ESP, EST, FIN, FRA, GRE, IRN, ISR, ITA, JPN, KOR, NLD, RUS, SGP, SWE, TUR, TWN, UK, US
CHN, GRE, IND, IRN, ISR, JPN, KOR, RUS, TWN, UKR, US
Ländercode: AUS Australien, CAN Kanada, CHN China, DEU Deutschland, DNK Dänemark, ESP Spanien, EST Estland, FIN Finnland, FRA Frankreich, GRE Griechenland, IND Indien, IRN Iran, ISR Israel, ITA Italien, JPN Japan, KOR Südkorea, NLD Niederlande, RUS Russland, SGP Singapur, SWE Schweden, TUR Türkei, TWN Taiwan, UK Vereinigtes Königreich, UKR Ukraine, US Vereinigte Staaten
Die Gefahr, hinter andere Länder zurückzufallen (Fear of Missing Out, FOMO), motiviert die Länder der zweiten Gruppe. Hierbei handelt es sich um eine andere, bedrohungsbasierte Perspektive, die den Wettbewerbsnachteil betont, der sich aus der Unfähigkeit ergeben könnte, militärische KI nicht zu nutzen. Zu dieser Gruppe gehören etablierte Rüstungsexporteure wie Frankreich und Italien, das transatlantisch ausgerichtete Dänemark sowie Griechenland, dessen Streitkräfte nach der internationalen Finanzkrise 2008/09 mehrere Jahre lang unterfinanziert waren. Im Falle Athens steht die Angst, den Anschluss zu verlieren, auch in direktem Zusammenhang mit der Sorge um die Gefährdungen, die aus griechischer Sicht von der Türkei ausgehen.
Die meisten Länder gehören der dritten Gruppe an, die eine weniger ausgeprägte Position vertritt und KI in erster Linie als Fähigkeitsmultiplikator interpretiert. Die Mitglieder der beiden anderen Gruppen teilen diese Perspektive ebenfalls, treiben die Entwicklung militärischer KI jedoch über bedrohungs- oder FOMO-basierte Schwerpunkte voran. Wer dagegen KI primär als Fähigkeitsmultiplikator sieht, hat tendenziell weniger klar definierte Entwicklungs- und Einsatzprioritäten und legt gegenwärtig den Fokus darauf, das mögliche Spektrum militärischer KI-Lösungen umfassend auszuleuchten.

25.2.1.2 Wer beeinflusst wen?

Diese drei strategischen Treiber spielen auch eine Rolle, wenn es um die Frage geht, ob und inwieweit Dritte die KI-Perspektive eines Landes prägen (Tab. 25.2). Hier sind die Vereinigten Staaten nach wie vor der zentrale Akteur, insbesondere für ihre Verbündeten in der asiatisch-pazifischen Region. Die europäischen Partner der Vereinigten Staaten lassen sich auch von den anderen Mitgliedern der NATO und der EU inspirieren. In diesem Zusammenhang bedeutet Inspiration, dass die Partner ihre Grundlagendokumente im Lichte US-amerikanischer Denkweisen und Konzepte anpassen, indem sie z. B. die Rolle der KI bei dimensionsübergreifenden Operationen (Multi-Domain Operations, MDO) betonen, organisatorische Reformen der USA nachahmen und amerikanischen Führungsansätze und -konzepte wie z. B. Joint All-Domain Command and Control (JADC2) folgen, um mit den USA interoperabel zu bleiben.
Tab. 25.2
Wer prägt das Denken über militärische KI?
Herausforderer
prägen das Denken
Agnostische Position
Partner prägen das Denken
CHN: US
US: CHN
Mehrere: RUS, ISR, IND (CHN, PAK), IRN (US, ISR),
Nachbarländer: GRE (TUR),
UKR (RUS)
SWE, FRA, ESP
US: AUS, CAN, UK, TUR,
DEU, FIN, DNK, JPN, KOR, TWN
Mehrere: EST (US, UK, FRA, NATO), GRE (US, ISR),
ESP (NATO, EU), ITA (NATO, US), NLD (US, NATO, EU), SGP
Strategische Herausforderer sind bei der Gestaltung militärischer KI-Perspektiven ebenso deutungsmächtig wie Partner und Verbündete. Geradezu idealtypisch hierfür stehen die USA und China, die wechselseitig mit Argusaugen auf die jeweiligen KI-Programme blicken, um Wettbewerbsnachteile der eigenen Streitkräfte aufgrund von KI-Fortschritten des anderen zu verhindern. Ferner prägt die oben erörterte bedrohungsbasierte Sichtweise auch die Perspektiven derjenigen Länder, die sich durch Nachbarn oder eine Mischung verschiedener Risiken existenziell gefährdet sehen.
Zwischen diesen beiden Polen liegen nur noch wenige Länder. Frankreich betont traditionell seine Rolle als selbstbestimmte Atommacht und versucht, seinen eigenen Kurs in Bezug auf militärische KI zu definieren. Schweden und Spanien sind dagegen etwas schwieriger zu verorten. Spaniens nationale Sicherheitsstrategie spricht zwar von der Herausforderung durch China, aber das ist eher ein untergeordneter strategischer Treiber militärischer KI, die stärker durch Initiativen innerhalb der NATO und der EU beeinflusst zu sein scheint. Schweden, das den USA traditionell sehr nahesteht, nimmt eine agnostische Perspektive ein, da sein Denken von internen Faktoren wie der Gesamtverteidigung und der NATO geprägt ist.

25.2.1.3 Menschen- oder technikzentriertes Verständnis

Die Frage, wie Streitkräfte das Verhältnis zwischen Menschen und Maschinen gestalten wollen, führt zur Unterscheidung zwischen menschen- bzw. technikzentrierten militärischen KI-Ansätzen. Der menschenzentrierte Ansatz geht davon aus, dass KI den Menschen nicht ersetzen, sondern ergänzen soll. Im Gegensatz dazu geht ein technikzentrierter Ansatz davon aus, dass KI die vollständige technische Autonomie und die Interaktion zwischen Maschine und Mensch erleichtern und beschleunigen soll.
Tab. 25.3 illustriert, dass die meisten der 25 Länder einen menschenzentrierten Ansatz verfolgen, allerdings mit bemerkenswerten Nuancen. Estland beispielsweise unterstützt diesen Ansatz, ist aber kein „normativer Falke“ in Bezug auf die Regulierung militärischer KI. Südkorea gehört ebenfalls zu dieser Gruppe, aber die demografische Alterung und die dramatisch schrumpfende Personalbasis der Streitkräfte könnten in Zukunft zu einer stärker technikzentrierten Sichtweise führen. Die USA sind derzeit ebenfalls eindeutig menschenzentriert, aber die jüngste vom Verteidigungsministerium angekündigte Replicator-Initiative sieht eine Zukunft mit Schwärmen unbemannter Einheiten vor, um Gegner zu überwältigen, die fest in der technikzentrierten Perspektive verankert ist (Hicks, 2023; Tucker, 2024).
Tab. 25.3
Menschen- oder technikzentriertes Verständnis militärischer KI
Technikzentrierter Ansatz
Agnostischer Ansatz
Menschenzentrierter Ansatz
UKR, TUR
DNK, EST, GRE, IRN, RUS, SWE
AUS, CAN, CHN, DEU, DNK, ESP, EST, FIN, FRA, IND, ISR, ITA, JPN, KOR, NLD, SGP, TUR, TWN, UK, UKR, US
Derzeit tendieren vor allem zwei Länder zu einem technikzentrierten Ansatz. Die Türkei möchte mit KI das umfassende Portfolio unbemannter Systeme an Land, zur See und in der Luft erweitern, um dimensionsübergreifende Operationen mit unbemannten Systemen voranzutreiben. Das türkische Verteidigungsunternehmen Havelsan propagiert dazu den Ansatz der Digital Troops. Darüber hinaus sind die türkischen Verteidigungsingenieure der Ansicht, dass die Integration von Menschen und Maschinen schwieriger zu bewerkstelligen ist als die Interaktion zwischen Maschine und Maschine, was den technikzentrierten Ansatz zusätzlich verstärkt. Die Ukraine verfolgt eine ähnliche Idee, die sich aus dem aktuellen Krieg ergibt. Die Verwirklichung maschineller Autonomie mit militärischer KI ist eine der erklärten Entwicklungsprioritäten des Landes, weil der Krieg zeigt, dass sich der Gegner zuerst darauf fokussiert, die Konnektivität, die erforderlich ist, um ferngesteuerte Systeme mit dem menschlichen Bediener zu verbinden, zu stören oder auszuschalten.
Schließlich gibt es mehrere Länder, die eine neutrale Haltung einnehmen, aber in dieser Gruppe gibt es starke Treiber, die auf eine zukünftige technikzentrierte Haltung hindeuten. Dänemarks Bedarf an weiträumiger Überwachung mit unbemannten Flugzeugen und militärischer KI könnte zu einem stärker technikzentrierten Ansatz führen. Estland, Iran, Singapur und Taiwan sehen die Möglichkeit, mithilfe von KI und unbemannten Systemen knappe Personalressourcen freizusetzen. Griechenland ist noch unentschlossen, aber die strategische Rivalität mit der Türkei könnte das Gleichgewicht kippen, je nachdem, wohin sich die Türkei entwickelt. Die Position Russlands bewegt sich zwischen beiden Polen, insbesondere was das Zusammenspiel von militärischer KI und autonomen Waffensystemen (Lethal Autonomous Weapon Systems, LAWS) betrifft. Schweden schließlich sieht wie Dänemark einen Bedarf an weiträumiger Überwachung, bei der militärische KI die unbemannten Mittel ergänzen könnte. Darüber hinaus könnte die Notwendigkeit, Hyperschallwaffen zu bekämpfen, zu einer stärker technikzentrierten Haltung führen, bei der die militärische KI mit Blick auf die Analyse von Daten, die für diese spezielle Bedrohung relevant sind, eine Rolle spielen könnte.

25.3 Forschung und Entwicklung (F&E)

Bevor wir einen Blick auf aktuelle Prioritäten der KI-Entwicklung im Verteidigungsbereich werfen, lohnt sich die Frage, welche der drei Wellen militärischer KI die Denkweise der untersuchten Nationen prägt. Die Antwort auf diese Frage soll zeigen, ob sich die militärische KI-Anwendung eher am Status quo orientiert (KI der zweiten Welle) oder ob neue Ansätze verfolgt werden, die davon abweichen und zu potenziell disruptiven Anwendungen führen können (KI der dritten Welle).
Wie Tab. 25.4 verdeutlicht, folgt die überwiegende Mehrheit der untersuchten Länder einem datenzentrierten KI-Verständnis. Die Vereinigten Staaten sind bislang die einzige Nation, die im Bereich der Streitkräfte die Vorteile von Lösungen der dritten KI-Welle diskutiert und hierfür z. B. im Rahmen der DARPA auch Entwicklungsprogramme aufgesetzt hat. Nur wenige Länder verfolgen im Unterschied dazu eine agnostische Position. Estland, Iran und Spanien stehen am Beginn der KI-Einführung, so dass sich deren Vorstellungen und Konzepte noch in Entwicklung befinden. Die Schwerpunktsetzungen der Türkei deuten auf eine schwache Tendenz in Richtung Emergenz in Kombination mit einem ausgeprägten Fokus auf technische Autonomie in Form unbemannter Systeme hin. Kanadas Ansatz für militärische KI leidet unter den derzeitigen organisatorischen Schwierigkeiten.
Tab. 25.4
Daten- oder emergenzbasierte Entwicklung militärischer KI
Fokus auf Daten
Agnostischer Ansatz
Fokus auf Emergenz
AUS, CHN, DEU, DNK, FIN, FRA, GRE, IND, ISR, ITA, JPN, KOR, NLD, RUS, SGP, SWE, TWN, UK, UKR, US
CAN, EST, ESP, IRN, TUR
US
Kombiniert man den perspektivischen Fokus auf Daten bzw. Emergenz mit der Betonung menschen- oder technikzentrierter Ansätze, resultiert daraus die in Abb. 25.1 illustrierte 2×2-Matrix. Diese unterstreicht nachdrücklich, dass alle 25 Nationen derzeit innerhalb des gleichen daten- und menschenzentrierten Paradigmas operieren. Wenn sich jedoch Herausforderer und etablierte Akteure im gleichen Paradigma bewegen, sind Überraschungen von strategischer Reichweite eigentlich unmöglich. Insofern stabilisiert dieser Umstand die Vorstellungen der Akteure. Die Darstellung bringt allerdings auch zum Ausdruck, dass es Akteure gibt, die in naher Zukunft aus dem vorherrschenden Paradigma ausbrechen könnten:
Abb. 25.1
Vier Paradigmen der Entwicklung militärischer KI
Full size image
  • Die Vereinigten Staaten sind der prominenteste Kandidat für künftige Entwicklungen, die einem kontextbewussten und emergenten Ansatz folgen. Das illustrieren z. B. die erwähnte Replicator-Initiative sowie Konzepte wie JADC2, die dezentrale und verteilte Führungsansätze (Command and Control, C2) betonen. Allerdings zeigen sich gerade auch in den USA die Beharrungskräfte, die einen umfassenden Schwenk in diese Richtung gegenwärtig noch behindern.
  • Sobald sich die Vereinigten Staaten in Richtung Emergenz bewegen, wird China wahrscheinlich nachziehen, da es auf Augenhöhe agieren will. Ob China auf maschinelle Autonomie setzt, bevor kontextbewusste militärische KI-Lösungen genutzt werden, ist derzeit schwer zu sagen. Die jüngsten Experimente des Landes mit großen Sprachmodellen (Large Language Models, LLM) zur Unterstützung der Schwarmführung könnten als Frühindikator in diese Richtung gedeutet werden. Ob ein LLM-basierter Schwarm autonomer Systeme der Realität auf dem Schlachtfeld standhalten würde, ist jedoch zweifelhaft, da seine Fähigkeit begrenzt sein dürfte, vorausschauende Taktiken zu entwickeln, die der Gegner nur schwer nachahmen kann.
  • Die Ukraine, die kürzlich beschlossen hat, eine neue Einheit für unbemannte Systeme einzurichten (President of Ukraine, 2024), und Israel sind ebenfalls zwei offensichtliche Kandidaten für Veränderungen, da beide angesichts der aktuellen Gegebenheiten auf dem Gefechtsfeld einen Nutzen in der Weiterentwicklung maschineller Autonomie mit KI sehen. Das Gleiche gilt für die Türkei, die militärische KI zusammen mit ihrem breiten Portfolio an unbemannten Systemen in allen Dimensionen einsetzt.
  • Schließlich gibt es im Iran und in Südkorea Entwicklungen, die darauf hinweisen, dass beide Länder künftig ebenfalls die technische Autonomie stärker betonen könnten, um wie erwähnt dem demografischen Altern entgegenzuwirken. Zudem erachtet Iran den Umstand, dass eine bodengestützte Flugabwehr wegen eines menschlichen Fehlers im Jahr 2020 irrtümlich Flug 572 der Ukrainian International Airline abgeschossen hat, als Beispiel dafür, dass sich solche Fehler mit mehr technischer Autonomie verhindern ließen.
Vor diesem Hintergrund können die gegenwärtigen F&E-Anstrengungen in sechs Schwerpunkten zusammengefasst werden:
  • Die Mehrheit setzt bei der Entwicklung militärischer KI auf eine Verbindung mit dem Einsatz unbemannter Systeme. Dabei ergeben sich Unterschiede aus dem Reifegrad der vorhandenen unbemannten Systeme, den Aufgaben, die diese übernehmen, und den Dimensionen, in denen sie eingesetzt werden. Gegenwärtig dominieren Aufgaben wie die Nachrichtengewinnung und Aufklärung, die Verbesserung des Lagebildes sowie die Unterstützung der Zielidentifizierung.
  • Ein zweiter Entwicklungsschwerpunkt ist im Bereich der vorausschauenden Wartung sowie der Logistik zu erkennen. Beide Anwendungsbereiche sind ebenso datenintensiv wie verschiedene Cyberoperationen, deren Verbesserung mit KI angestrebt wird. Diesem zweiten Schwerpunkt sind zudem auch die Datenanalytik sowie das allgemeine Datenmanagement zuzuordnen.
  • Führung (C2) in Kombination mit Datenanalytik und -management stellt einen dritten Schwerpunkt dar. Zahlreiche Streitkräfte verstehen KI dabei als Instrument, um schnell wachsende Datenmengen bewältigen und auswerten zu können. Nur wenige Länder verstehen KI dagegen als Ansatz, neue Führungsverfahren zu entwickeln.
  • Gut ein Drittel der untersuchten Staaten will KI-Lösungen entwickeln, um die eigenen Fähigkeiten im Bereich der elektronischen Kriegführung (EloKa) zu verbessern bzw. gegnerische EloKa-Maßnahmen abzuwehren. KI für Lenkflugkörper, Torpedos, zur Feuerunterstützung und in der Flugabwehr stehen dagegen nur bei wenigen Ländern hoch auf der Entwicklungsagenda. Im letztgenannten Bereich könnten sich jedoch aufgrund der Auswertung der Erfahrungen im Russland-Ukraine-Krieg sowie in Israel künftig Veränderungen ergeben.
  • Ebenfalls gut ein Drittel der Länder zieht KI für methodische Ansätze wie das Red Teaming und Wargaming in Betracht, während bislang deutlich weniger Länder in KI-Lösungen für die (Missions-)Planung bzw. zur Taktikentwicklung investieren. Interessanterweise hat gerade Deutschland in diesem Bereich jüngst Akzente gesetzt, die in Zukunft zu Veränderungen führen könnten, wenn es Bundeswehr und Industrie gelingt, Forschungsergebnisse in entsprechende Systeme und Produkte zu überführen.
  • Erwähnenswert ist schließlich auch die ausgeprägte Kongruenz der F&E-Schwerpunkte für militärische KI in Russland und China. So wollen beide Länder KI u. a. zur Zielidentifizierung, für EloKa und für Schwärme nutzen. In Kombination mit der Betonung unbemannter Systeme könnte sich daraus die Präferenz für vollautonome Zielaufklärungs- und Zielbekämpfungsschwärme ergeben, die in der Lage sind, auch unter umfassender gegnerischer Kontrolle des elektromagnetischen Spektrums zu operieren.

25.3.1 Organisation

Aufbau- und Ablaufstrukturen, so Jensen et al. (2022, S. 3), bestimmen wesentlich darüber, ob und inwieweit der Einsatz von Informationstechnologie zu militärischen Innovationen führt, denn sie kanalisieren den Informationsfluss und -austausch. Eine wichtige Frage ist daher, ob die untersuchten Nationen organisatorische Reformen durchführen, um sich auf den Einsatz von militärischer KI vorzubereiten. Der Blick auf die 25 Nationen zeichnet dabei ein sehr gemischtes Bild (Tab. 25.5).
Tab. 25.5
Organisationsentwicklung zugunsten militärischer KI
Projektorientierter Ansatz
Bestehende Organisationen übernehmen neue Aufgaben
Für neue Aufgaben werden neue Organisationen
geschaffen
FRA, US
AUS, CAN, CHN, DEU, DNK, ESP, EST, FIN, GRE, IRN, ITA, JPN, SGP, SWE, TUR, TWN
CAN, FRA, IND, ISR, KOR, NLD, RUS, UK, UKR, US
Die Vereinigten Staaten und Frankreich gehören zu den wenigen Ländern, die neue projektspezifische Organisationen zur Förderung militärischer KI eingerichtet haben. Das US-Projekt Maven untersuchte den KI-Einsatz für die Nachrichtengewinnung und Aufklärung. Die kleine und dedizierte Projektstruktur ermöglichte Fortschritte in relativ kurzer Zeit, stieß aber später beim Übergang in die vorherrschende funktionale Organisation auf organisatorische Widerstände. Frankreich hat ARTEMIS.IA als öffentlich-private Partnerschaft ins Leben gerufen, um den Streitkräften eine Reihe verschiedener KI-Anwendungen zur Analyse großer Datenmengen zur Verfügung zu stellen. Das Hauptziel, die besten Vorschläge zu ermitteln und auszuwählen, konnte jedoch nicht erreicht werden, da Schlupflöcher im Konzept verschiedenen Akteuren die Möglichkeit boten, den auf Wettbewerb ausgerichteten Ansatz zu umgehen.
Mehrere Länder haben beschlossen, neue Organisationseinheiten in den Verteidigungsministerien oder im F&E-Bereich zu schaffen, um die militärische KI voranzutreiben. Die Liste der neu geschaffenen KI-Einheiten im Verteidigungsbereich umfasst u. a. folgende Beispiele:
  • Cellule de Coordination de l’Intelligence Artificielle de Défense (CCIAD) in Frankreich
  • Pläne für eine neue Einheit zur Entwicklung von Zukunftstechnologien in der Forschungs- und Entwicklungsdirektion des israelischen Verteidigungsministeriums
  • Defense AI Council (DAIC) und die Defense AI Projects Agency (DAIPA) in Indien
  • Südkoreas Pläne für ein National Defense AI Center, das sich ausdrücklich an den neuen Organisationseinheiten orientiert, die in den USA und in Großbritannien gegründet wurden
  • Chief Information Officer und Data Center of Excellence in den Niederlanden
  • Russlands neue Sonderabteilung für die Entwicklung von KI-Technologien im Verteidigungsministerium
  • Defense AI Center (DAIC) in Großbritannien
  • Chief Digital and AI Office (CDAO) im US-Verteidigungsministerium
  • Brave1 und der Innovation Development Accelerator in der Ukraine
  • Defense AI Center of Excellence (DAICoE) in Kanada
Noch ist unklar, ob es diesen neuen Einheiten gelingt, die Arbeit unterschiedlicher Akteure zur Einführung und Entwicklung militärischer KI optimal zu koordinieren. Diese Ungewissheit ist auch der Grund dafür, dass zahlreiche Länder bestehende Organisationen mit der Aufgabe betraut haben, militärische KI in die Streitkräfte einzubringen. Die Türkei beispielsweise hat die Aufgabe der Koordinierung der KI-Akteure im Verteidigungsbereich in das Portfolio des Staatssekretariats für die Verteidigungsindustrie aufgenommen. Finnland verwarf die Idee, eine neue Einheit für militärische KI einzurichten, und entschied sich stattdessen für einen organisationsübergreifenden Matrixansatz. Estland schuf eine neue Position innerhalb des Verteidigungsministeriums und nutzt das Cyber Command als Übertragungsmechanismus, um die Industrie zu erreichen und die militärischen Dienste einzubeziehen. Australien geht nicht davon aus, dass die Einführung von KI in den Streitkräften großen organisatorischen Reformbedarf nach sich zieht, hat aber seinen allgemeinen Innovationsansatz geändert, um die Umsetzung neuer Ideen in einsatzfähige Lösungen zu beschleunigen.
Zusätzlich zu ministeriellen Veränderungen haben mehrere Länder in den Teilstreitkräften neue Organisationseinheiten geschaffen. Die Vereinigten Staaten haben die Initiative AI and Data Accelerator (AIDA) ins Leben gerufen, um „Teams von Datenexperten in die Kommandos der Streitkräfte einzubetten“ (Barnett, 2021). Frankreich setzt in ähnlicher Weise KI-Koordinatoren ein. Die Niederlande greifen auf Experten des Data Science Center of Excellence als KI-Berater in den Teilstreitkräften zurück, um Doktrinen zu formulieren und Projekte aufzusetzen. Australien hat eine zentrale Organisation innerhalb der Joint Capabilities Group eingerichtet, um die Bemühungen der Streitkräfte zu koordinieren. Indien hat mit der Gründung eines neuen KI-Unterausschusses und einer gemeinsamen KI-Arbeitsgruppe für die Streitkräfte einen ähnlichen Ansatz gewählt. Singapur hat für den gleichen Zweck das Digital Ops-Tech Center beim neuen Digital and Intelligence Service eingerichtet. Schließlich geht Südkorea am weitesten, denn dort hat sich jede Teilstreitkraft verpflichtet, eigene Testeinheiten zu etablieren, um Experimente für die Einführung und Weiterentwicklung militärischer KI voranzutreiben.

25.3.2 Finanzierung

Analytisch stellt die Finanzierungsdimension jedoch die größte Herausforderung dar. Die beträchtlichen Unterschiede in der Finanzierung, die von einigen hunderttausend Euro oder US-$ pro Jahr in einigen Ländern bis zu fast 5 Mrd. US-$ in den Vereinigten Staaten reichen, machen einen volumenbasierten Vergleich unbrauchbar. Darüber hinaus erschweren unterschiedliche nationale Haushaltsgesetze und verschiedene Definitionen der Finanzierungskategorien die ländervergleichende Analyse. Daher sind die in Tab. 25.6 zusammengefassten Ergebnisse mit Vorsicht zu interpretieren.
Tab. 25.6
Ansätze der Finanzierung militärischer KI
Irgendwie
finanziert
Dedizierte Budgetlinie
Beschaffungsvorhaben
Dedizierte Budgetlinie und Beschaffungsvorhaben
Dedizierte Budgetlinie, Beschaffungsvorhaben und ressortübergreifende Finanzierung
DNK, EST, ESP, GRE, ISR, NLD, SGP, SWE, TWN, UK
FIN, IND, ITA, ISR, JPN
AUS, FRA, IRN
CAN, CHN, DEU, FRA, RUS, TUR, UKR, US
KOR
Von links nach rechts gelesen, deutet die Kategorie „irgendwie finanziert“ darauf hin, dass nicht klar ist, welche Summen die jeweiligen Länder in militärische KI investieren, weil die diesbezüglichen Budgets nicht öffentlich zugänglich sind. Geld ist zwar vorhanden, aber es werden verschiedene Budgetlinien genutzt, um die jeweiligen Projekte zu finanzieren. Ob die Finanzierung stabil ist, ist in diesen Fällen schwer zu sagen. Die zweite Kategorie „dedizierte Budgetlinie“ deutet an, dass militärische KI offiziell im Verteidigungshaushalt erscheint, meist in Form von F&E-Projekten, die entweder auf aggregierter Ebene oder mit Bezug zu verschiedenen F&E-Prioritäten, Anwendungsfällen oder Technologiefeldern aufgeführt sind. Italiens Ausgaben enthalten beispielsweise auch Mittel, um die Vernetzung zwischen den Partnern des KI-Ökosystems voranzutreiben und dazu auch spezialisierte zivile KI-Forschungsinstitute einzubeziehen. Wenn militärische KI wie in Australien, Frankreich und Iran als Beschaffungsvorhaben erwähnt wird, bedeutet dies, dass entsprechende Vorhaben im Haushalt verankert sind; das lässt in der Regel auf eine mehrjährige Finanzierung schließen. Die letzten beiden Kategorien in Tab. 25.6 zeigen, dass die aufgelisteten Länder militärische KI als Teil laufender F&E-Anstrengungen im Verteidigungsbereich und als Beschaffungsprojekte budgetieren. Das sichert auf der einen Seite die mehrjährige Finanzierung ab, bedeutet auf der anderen Seite aber auch, dass es ohne Zugang zu eingestuften Unterlagen meist kaum möglich ist, konkret nachzuvollziehen, welche Summen wirklich für militärische KI ausgegeben werden.
Die Sicherstellung der Finanzierung ist jedoch nur ein Element. Noch wichtiger ist die Frage, wie die Mittel zur Verfügung gestellt werden. Methodisch ist auch diese Frage herausfordernd, weil es dazu kaum öffentlich verfügbare Informationen gibt. Frankreich und Deutschland zeigen, dass Finanzierungsmechanismen, die für die Entwicklung physischer Systeme (Material) definiert wurden, an ihre Grenzen stoßen, wenn damit softwarebasierte KI finanziert werden soll, die oft kürzeren Entwicklungs- und Innovationszyklen unterliegt. Frankreich nutzt z. B. unterschiedliche Budgets für beide Entwicklungsstränge. Und Deutschland integriert, abgesehen von der Finanzierung der verteidigungsrelevanten Grundlagenforschung, seine F&E-Ausgaben in die jeweiligen Beschaffungstitel, ohne die F&E-Summen auszuweisen. Südkorea hingegen ist das einzige analysierte Land, das auch zivile Ministerien, vor allem das Ministerium für Wissenschaft, Informations- und Kommunikationstechnologie, in die Kofinanzierung der Entwicklung seiner militärischen KI-Lösungen einbezieht.

25.3.3 Einsatz und Betrieb

Im Unterschied zu den breit gefächerten F&E-Prioritäten der untersuchten Länder konzentriert sich ihr Einsatz und Betrieb von KI-Anwendungen auf weniger Schwerpunkte. Folgende Themenkomplexe sind dabei von besonderer Bedeutung:
  • Die Mehrheit nutzt KI in Verbindung mit dem Einsatz unbemannter Systeme, gefolgt von KI für die Zielerkennung und zur Datenauswertung.
  • Gut jedes zweite Land setzt auf KI für die vorausschauende Wartung, die logistische Unterstützung und die simulationsbasierte Ausbildung. Knapp ein Drittel nutzt KI für Cyberoperationen und in der Flugabwehr.
  • Länder wie Deutschland, Frankreich, Großbritannien, Iran und Russland nutzen KI in Verbindung mit präzisen Wirkmitteln, was angesichts des umfassenden Lenkflugkörper-Portfolios dieser Länder nicht überraschend ist.
  • Die Verbesserung des Lagebewusstseins und Lageverständnisses sowie der Einsatz im Bereich der Führungsabläufe stellen einen weiteren KI-Schwerpunkt dar.
Neben dem Einsatzschwerpunkt ist auch die Frage von Interesse, wie die Länder KI-Lösungen in ihre Streitkräfte einführen. Tab. 25.7 verdeutlicht, dass die meisten Länder hierfür derzeit Experimente und/oder einzelne Projekte mit KI-Anteilen definieren. Nur wenige dieser Vorhaben schaffen jedoch – angesichts bestehender Hürden (Valley of Death) zwischen einer Idee und einem marktreifen Produkt bzw. zwischen einem F&E-Vorhaben und der Beschaffung – die Überführung in Systeme, die in die Streitkräfte eingeführt werden.
Tab. 25.7
Modi des Einsatzes militärischer KI
Noch nicht im Einsatz
Experimente und Projekte mit KI
KI-fokussierte
Experimente und Projekte
Beschaffungsvorhaben mit KI-Anteil
Spezifische KI-Beschaf-fungsvorhaben
Internationale Beschaffungsvorhaben mit KI-Anteilen
Einsatz in Kriegen und Konflikten
JPN
AUS, CHN, DEU, DNK, ESP, EST, FIN, FRA, ITA, KOR, NLD, RUS, SGP, TUR, TWN, UK
CAN, DEU, IRN, NLD, RUS, SGP, TWN, US
FRA, ISR, IND, RUS, US
FRA
DEU, DNK, EST, FIN, GRE, IND, ITA, NLD, UK, UKR
ISR, RUS, UKR
Besondere Aufmerksamkeit verdient gerade deshalb die Einführung militärischer KI über die Beschaffung von Systemen bei Partnern. Wie die Übersicht zeigt, ist diese Option nicht nur für Länder mit einer schwächer entwickelten Verteidigungsindustrie von Bedeutung, sondern auch für rüstungsindustriell hoch entwickelte Länder wie Deutschland, Italien, die Niederlande und Großbritannien. In allen vier Ländern werden KI-Lösungen als Teil ausländischer Verteidigungssysteme wie F-35 (Kampfjet), Reaper (unbemanntes fliegendes System) oder Arrow 3 (Flugabwehr) eingeführt. Diese und andere Systeme sind daher zentrale Transmissionsriemen zur Diffusion von KI-Funktionalitäten.
Die Nutzung dieser Systeme kann zwar die KI-Einführung beschleunigen, ist aber auch mit Herausforderungen verbunden. Eine erste Herausforderung ergibt sich aus dem unvermeidlichen Verdrängungseffekt zwischen nationalen KI-Anwendungen und -Funktionalitäten und den KI-Anteilen in international genutzten Verteidigungssystemen. Der zweite resultiert aus dem Umstand, dass die Anwender genau verstehen müssen, welche KI sie von einem Partner importieren. In diesem Zusammenhang machte Moshe Patel, Direktor der Israel Missile Defense Organization, im Mai 2023 auf einer Veranstaltung des Center for Strategic and International Studies in Washington, DC, eine aufschlussreiche Aussage. Mit Blick auf Finnlands Beschaffung israelischer Flugabwehrsysteme argumentierte er, dass Israel seine KI-Algorithmen in die finnischen Führungsabläufe (C2) integrieren werde (CSIS, 2023). Aber wie tief und umfassend werden Nationen bereit sein, „fremde Algorithmen“ in ihre souveränen Systeme zu integrieren, und inwieweit wird der Käufer ein Mitspracherecht bei der Kalibrierung und Anpassung dieser „fremden Kl-Algorithmen“ haben?

25.3.4 Ausbildung und Training

KI braucht Talente, aber der Wettbewerb um Talente ist hart, da Streitkräfte, Rüstungsunternehmen und kommerzielle Industrien um die wichtigsten Experten buhlen. Dieser Wettbewerb und die in Ländern wie Dänemark, Estland und Finnland ausdrücklich geäußerte Überzeugung, dass die Streitkräfte nur KI-Systeme einsetzen sollten, die sie auch wirklich verstehen, hat viele Nationen dazu veranlasst, ihre Ausbildungsbemühungen zu verstärken. In Anbetracht der Tatsache, dass die meisten Länder den querschnittlichen Charakter von KI und ihre weitreichenden Folgen für alle Bereiche des Lebens und der Arbeitswelt betonen, überrascht es, wie begrenzt diese Bemühungen im Kontext der Streitkräfte gegenwärtig noch sind.
Wie Tab. 25.8 zeigt, konzentriert sich gut ein Drittel darauf, dass primär die Streitkräfteangehörigen KI verstehen und nutzen können, z. B. indem die Lernprogramme an den Verteidigungsakademien angepasst werden. Eine zweite Gruppe schließt auch das zivile Personal in den Ministerien ein. In dieser Hinsicht sind Griechenland und Südkorea von besonderem Interesse. Griechenland hat umfassende Ausbildungsprogramme an den Verteidigungsakademien des Landes eingerichtet, während in Südkorea das Verteidigungsministerium mit dem Ministerium für Wissenschaft, Informations- und Kommunikationstechnologie zusammenarbeitet, um Soldaten und Offiziere mit KI-Kenntnissen auszubilden. Beide Länder betonen, dass auch für das zivile Verteidigungspersonal erhebliche Ausbildungsanstrengungen erforderlich sind, um sicherzustellen, dass dieses gut vorbereitet ist, wenn Mitarbeitende in den zivilen Arbeitsmarkt wechseln. Ähnliche Bestrebungen gibt es in Israel, wo die Streitkräfte ebenfalls KI einsetzen, um potenziell hervorragende künftige Kommandeure frühzeitig zu erkennen, Ausbildungsprogramme zu personalisieren und Soldaten zu identifizieren, die ihren Dienst wahrscheinlich verlängern werden. Großbritannien hat ähnliche Initiativen lanciert.
Tab. 25.8
Wer für militärische KI ausgebildet wird
Unklar
Militärische Angehörige der Streitkräfte
Zivile und militärische Angehörige der Streitkräfte
Verteidigungsindustrie und militärische Angehörige der Streitkräfte
Verteidigungsindustrie sowie zivile und militärische Angehörige der Streitkräfte
CAN, DNK, JPN
AUS, CHN, DEU, EST, FIN, GRE, ITA, SWE
GRE, IRN, ISR, KOR, NLD, SGP, UKR, US
ESP, FRA, TUR, TWN, UK
RUS
Die dritte Gruppe umfasst Länder, die sich mit der Ausbildung von Streitkräfteangehörigen und Mitarbeitenden der Verteidigungsindustrie befassen. Dies ist in Spanien und Frankreich der Fall, wo die Industrie eine aktive Rolle bei der Förderung von KI-Schulungsprogrammen für Unternehmen spielt, auch im Hinblick auf eine bessere Integration kleiner und mittlerer Unternehmen in die KI-relevanten Lieferketten der führenden Verteidigungsunternehmen. Auch die Türkei gehört zu dieser Gruppe. Das dort lancierte YETEN-Projekt spielt eine besondere Rolle, um unter Einsatz von KI jene Rüstungsunternehmen zu identifizieren, die am besten geeignet sind, bestimmte Technologien in der Türkei zu entwickeln; dabei spielt die Qualifizierung der Mitarbeitenden auch eine Rolle.
Schließlich ist – nach gegenwärtigem Stand – Russland das einzige untersuchte Land, das seinen Schwerpunkt auf den Ausbau der KI-Kompetenzen der zivilen Mitarbeiter des Verteidigungsministeriums, der Streitkräfteangehörigen und der Rüstungsindustrie legt. Russland setzt KI zu Ausbildungszwecken ein und hat sogenannte „militärisch-wissenschaftliche Einheiten“ geschaffen. Von den Wehrpflichtigen, die in diesen Einheiten eingesetzt werden, wird erwartet, dass sie eine militärisch-wissenschaftliche Laufbahn einschlagen, um später als Experten in den Streitkräften oder in den militärischen Instituten zu arbeiten. In vergleichbarer Weise, aber mit anderem Schwerpunkt bündeln Frankreich und Israel lokales Fachwissen in „digitalen Reserveeinheiten“, die im Bedarfsfall aktiviert werden können.

25.3.5 Interpretation der Ergebnisse

Militärische Innovation kann entstehen, wenn operative Anforderungen, technologische Leistungsfähigkeit und konzeptionelle Reife übereinstimmen. Dieser Aufsatz hat jedoch deutlich gemacht, dass KI-relevante Entwicklungen entlang dieser drei Pfade sehr uneinheitlich erfolgen. Im Ergebnis bestätigen daher einige Ergebnisse der ländervergleichenden Betrachtung die Erwartungen, die sich beispielsweise aus der militärischen Innovationsforschung ergeben. Andere Ergebnisse sind überraschend, und manche sprechen unbequeme Wahrheiten an.

25.3.5.1 Bestätigte Erwartungen

Die Diffusion militärischer Innovation folgt einem mehrstufigen Prozess. Dieser entwickelt sich von der Nachahmung des Verhaltens anderer über die Übernahme bestehender Praktiken bis zur Entwicklung neuer Konzepte und Taktiken (Raska, 2016, S. 168–169). Daraus folgt als erste Erkenntnis die Einsicht, dass im Moment die Nachahmung dominiert. Für Herausforderer wie für Alliierte steht dabei der Zugang der US-Streitkräfte zu KI im Zentrum der Betrachtung. China, Russland und Iran nehmen die US-Praxis unter die Lupe, um mögliche Schwachstellen zu erkennen und für sich zu nutzen. Ebenso blicken US-Verbündete und Partner in Europa und im asiatisch-pazifischen Raum auf die US-Praxis. In diesem Fall signalisiert Nachahmung Nähe und Vertrautheit, die die Interoperabilität und damit auch die Zusammenarbeit erleichtern sollen.
Zweitens blicken militärisch und rüstungsindustriell leistungsfähige Nationen in einem Prozess der „umgedrehten Emulation“ auf andere. Einerseits schauen diese Länder auf die Herausforderer, um zu verstehen, ob ihre eigenen Prozesse ausreichen, um nicht von den Herausforderern überrascht zu werden. Am deutlichsten wird dies im Hinblick auf die Notwendigkeit, ganzheitliche KI-Ökosysteme im Verteidigungsbereich zu schaffen, die militärische Anwender, Forschungsinstitute, etablierte Verteidigungs- und neue Nicht-Verteidigungsunternehmen sowie Investoren zusammenbringen. Während die meisten Länder versuchen, diesen Ansatz zu realisieren, beklagen Startup-Unternehmen, die aus dem kommerziellen Sektor stammen und Verteidigungslösungen anbieten wollen, hohe Eintrittshürden, die nur langsam abgebaut werden. Viele Nationen betrachten daher Chinas scheinbar perfekten Ansatz der Military-Civil Fusion zur Integration militärischer und nichtmilitärischer wissenschaftlich-industrieller Fertigkeiten als impliziten Benchmark. Diese Sichtweise übersieht jedoch die Schwierigkeiten, die selbst die chinesische Führung bei der Umsetzung ihres Top-Down-Ansatzes hat, um die technologieinduzierte Modernisierung der Verteidigung voranzutreiben.
Andererseits analysieren etablierte Akteure und ehrgeizige Newcomer aktuelle Kriege, um die daraus gewonnenen Erkenntnisse in die Entwicklung militärischer KI einfließen zu lassen. Von Freiwilligen in der Ukraine entwickelte neue Softwarelösungen wecken dabei insbesondere in den EU- und NATO-Ländern großes Interesse. Dabei wird jedoch übersehen, dass die in der Ukraine praktizierte umfassende Fusion von Daten unterschiedlichster privater und hoheitlicher Provenienz in den meisten EU- und NATO-Staaten an bestehenden Datenschutzbestimmungen scheitern würde. Die herausragende Rolle westlicher KI-Anbieter in der Ukraine sollte auch Warnung dafür sein, nicht falschen Schlussfolgerungen zum Opfer zu fallen, indem der Einsatz westlicher Technologie durch die ukrainischen Streitkräfte als lokale Innovation betrachtet wird, die wiederum im eigenen Land angesichts des größeren regulatorischen Spielraums, den diese Unternehmen in der Ukraine genießen, unmöglich wäre. Darüber hinaus neigen Analysen aktueller Kriege und Konflikte dazu, den Beitrag einzelner Systeme oder Anwendungen zu stark zu gewichten, systemische Gesamtbetrachtungen aber zu übersehen, die für das Zusammenspiel von Effektoren und Sensoren relevant sind (Borchert et al., 2021, S. 37–52).

25.3.5.2 Überraschungen

Für militärische KI gibt es gegenwärtig keinen disruptiv wirkenden Akteur. Diese erste Überraschung ist vermutlich auch die kontraintuitivste Erkenntnis der präsentierten Analyse. Ein Grund dafür ist konzeptioneller Natur und ergibt sich aus dem Umstand, dass Disruption im militärischen Sinne schwer zu definieren ist. Veränderungen beim Einsatz militärischer Macht, die disruptive Ergebnisse herbeiführen, können aus konzeptionellen, organisatorischen, technologischen oder operativen Änderungen resultieren und sind meist erst im Nachhinein sichtbar. Ein zweiter Grund resultiert aus dem Umstand, dass die Forderung des Gegen-den-Strich-Denkens zwar weitverbreitet ist, es jedoch auch für den Herausforderer unklar ist, ob ein neuer Ansatz, den er verfolgen will, den erhofften strategischen Vorteil schaffen wird. Die Gefahr des Scheiterns lässt daher auch den Herausforderer risikoavers agieren. Allerdings zeigt die vorgestellte 2×2-Matrix (Abb. 25.1), dass es mit dem Übergang von der zweiten zur dritten Welle militärischer KI und dem Wechsel von einem menschen- zu einem technikzentrierten Fokus zwei klare Schwellenwerte gibt, deren Überschreiten langfristig disruptive Folgen haben kann.
Überraschend ist zweitens die Erkenntnis, dass der allgemeine Digitalisierungsgrad einer Nation ein schlechter Indikator der militärischen Digitalisierung bzw. der militärischen KI-Fähigkeiten ist. Alle Länder, die in der Digitalisierung des öffentlichen Sektors als führend gelten, bekunden Mühe, die gewonnen Vorteile in den militärischen Kontext zu überführen. Estland, das in Sachen E-Government und Cybersicherheit als Vordenker gilt, sieht sich einem konservativen Militär gegenüber, das die Deckung des aktuellen Ausrüstungsbedarfs höher gewichtet als die militärische Digitalisierung – und beides hindert das Land daran, militärische KI schnell einzuführen. Das Gleiche gilt für Israel (Adamsky, 2010, S. 132–133), dessen „organisiertes Durcheinander“ im Bereich der militärischen KI zwar Fortschritte erzielt, was aber bei Weitem nicht ausreicht, um die vorhandene Technologiebasis optimal zu nutzen. Eine ähnliche Dysfunktion zwischen Industrie und Militär ist in Taiwan zu beobachten, wo kommerzielle und verteidigungsindustrielle Akteure in ihren eigenen Silos operieren, was den Streitkräften des Landes den Zugang zu kommerziellen Talenten und Technologien verwehrt. Das gleiche Problem behindert auch die militärische KI in Südkorea, denn dort gilt die Zusammenarbeit mit der Verteidigungsindustrie als unattraktiv. Und Indien macht zwar als KI-Talentschmiede, nicht jedoch als KI-Innovationsschmiede von sich reden. All diese Länder dienen somit als warnendes Beispiel dafür, dass die Digitalisierung des öffentlichen (und privaten) Sektors nicht ohne Weiteres auf die Streitkräfte übertragen werden kann. Diese Erkenntnis ist umso relevanter, als die meisten der in diesem Aufsatz analysierten Länder die Digitalisierung des Verteidigungssektors als Voraussetzung des erfolgreichen Einsatzes militärischer KI betrachten.
Drittens ist zu beachten, dass alle Länder unabhängig von ihrem technisch-industriellen Reifegrad Mühe damit bekunden, Ökosysteme aufzubauen, welche in der Lage sind, alle für die militärische Anwendung von KI relevanten Akteure produktiv einzubinden. Rüstungsindustrielle Innovation erscheint in diesem Licht als Schattenseite der (oft überbetonten) militärischen Innovation, bedarf aber deutlich mehr Aufmerksamkeit. So ist Südkorea zwar das einzige Land, das in einem ressortgemeinsamen Ansatz Finanzmittel für die Entwicklung militärischer KI aufbringt, doch das dysfunktionale rüstungsindustrielle Ökosystem konterkariert die damit verbundenen Vorteile. Eine starke zivil-militärische Dichotomie prägt auch die Ansätze in Deutschland bzw. Spanien und wird zusätzlich verstärkt durch Ressortrivalitäten, wenn es um das Bereitstellen von Finanzmitteln für militärische Forschung und Technologieentwicklung geht. Die Praxis in vielen westlichen Ländern steht im Gegensatz zu den Ansätzen, die die Türkei und Russland verfolgen, denn beide Staaten setzen z. B. darauf, KI zu nutzen, um die Fertigkeiten der rüstungsindustriellen Technologiebasis auszubauen. Moskaus Praxis gilt es dabei besonders im Auge zu behalten, denn Russland verbessert schrittweise seine Fähigkeit, Einsichten aus aktuellen Kriegen und Auseinandersetzung zu nutzen, um rüstungsindustrielle Produkte und Unternehmen weiterzuentwickeln (Ryan, 2024).

25.3.5.3 Unbequeme Wahrheiten

Einige Ergebnisse der ländervergleichenden Betrachtung setzen ein Fragezeichen hinter vorherrschende Annahmen des gegenwärtigen Diskurses zur Ethik und zur Regulierung militärischer KI. Zu diesen unbequemen Wahrheiten zählt zuerst der Umstand, dass die Bedeutung ethischer Fragen für militärische KI zwar anerkannt wird, aber signifikante nationale Unterschiede in Relevanz und Motivation bestehen. Frankreich und Großbritannien haben spezielle Ausschüsse im Verteidigungsministerium eingerichtet, um die Entwicklung zuverlässiger militärischer KI zu überwachen. Russland und China sehen zwar eine Regulierung militärischer KI auf globaler Ebene als Notwendigkeit, aber in erster Linie als Instrument, um den strategischen Spielraum der USA einzuschränken und einen US-Vorsprung zu verhindern, der beide Länder daran hindern würde, bestehende Lücken zu schließen. Die Vereinigten Staaten haben ihrerseits ein ähnliches Interesse daran, durch internationale Regulierung einen bestimmten Einsatz von militärischer KI vorzuschreiben, der keine Überraschungen auf dem Schlachtfeld hervorruft. Spanien hingegen hat sich während seiner EU-Ratspräsidentschaft in der zweiten Hälfte des Jahres 2023 hauptsächlich darauf konzentriert, die Regulierung von KI unabhängig von den Bedürfnissen der Streitkräfte voranzutreiben, was diese veranlasste, ihre Überlegungen über die militärischen Kanäle in der EU und der NATO zu entwickeln.
Diese Beispiele verdeutlichen, dass Analysten die Motive, die Länder dazu veranlassen, sich überhaupt mit der Ethik militärischer KI zu befassen, viel genauer beleuchten müssen. Indien beispielsweise sendet sehr widersprüchliche Signale aus, wenn es sich für den verantwortungsvollen Einsatz militärischer KI ausspricht, sich aber beispielsweise weigert, den Aktionsaufruf des REAIM-Gipfels 2023 zu genau diesem Grundsatz zu unterzeichnen. Im Unterschied dazu haben die Niederlande ein nationales ELSA Lab Defense eingerichtet, um die ethischen, rechtlichen und gesellschaftlichen Folgen militärischer KI zu bewerten, auch um damit auf die internationale Normbildung einwirken zu können. Singapur verfolgt ein ähnliches Verständnis und betrachtet die militärische KI-Governance als wichtiges Element seiner Verteidigungsdiplomatie. Das hat den Stadtstaat 2019 veranlasst, seine eigenen Leitprinzipien für militärische KI zu veröffentlichen. Estland und Finnland stimmen zwar der Notwendigkeit einer verantwortungsvollen militärischen KI zu, sind jedoch besorgt, dass eine Überbetonung der Regulierung die ethisch begründete Technologieentwicklung und damit auch Geschäftsinteressen behindern könnte. Und in Griechenland haben jahrzehntelange Unterinvestitionen und die strategische Rivalität mit der Türkei den ethischen Diskurs über militärische KI in den Hintergrund gedrängt.
Die Entwicklungen in der Ukraine und in Israel veranschaulichen, dass Krieg die normativen Präferenzen neu ordnet. Unter Bedrohung passen beide Nationen die Einsatzregeln für KI auf dem Schlachtfeld neu an. Wenn „der Schwerpunkt auf Schaden und nicht auf Genauigkeit liegt“, wie ein Sprecher der israelischen Verteidigungsstreitkräfte am 09.10.2023 (Abraham, 2023) sagte, verschiebt sich der Schwellenwert zum Einsatz militärischer KI – aber nicht als Folge technischer Entwicklungen, sondern aufgrund bewusster Entscheidungen der handelnden Akteure. Die Dominanz des Gegners im elektromagnetischen Raum ist ein weiterer Aspekt, den es zu berücksichtigen gilt, denn sie bedeutet, dass es schwieriger wird, unbemannte Systeme aus der Distanz zu steuern, weil Kommunikationsverbindungen gestört werden oder verloren gehen. Gerade die Ukraine sieht daher eine Notwendigkeit, auf mehr – und nicht weniger – KI-gestützte Autonomie zu setzen. Damit verdeutlichen beide Länder, dass Normpräferenzen kontextabhängig sind, da ein Krieg Regierungen dazu verleiten kann, „einst umstrittene Technologien mit Begeisterung zu übernehmen“ (O’Brien, 2024).
Unbequem ist drittens auch die Warnung, den Fortschritt militärischer KI in autoritären Ländern nicht überzubewerten. Vielmehr leiden China, Iran und Russland unter denselben Pathologien, die militärische Innovation auch in demokratischen Ländern behindern. Ja, die zivil-militärischen Beziehungen unterscheiden sich dort vom Ansatz demokratischer Rechtsstaaten. Dies bedeutet jedoch noch nicht, dass eine militärisch-zivile Fusion leichter zu erreichen ist, da Erfolge davon abhängen, ob und inwieweit neuartige Ideen und Technologien nichtmilitärischen Ursprungs in den militärisch-industriellen Komplex eindringen können, der in diesen Ländern ein wichtiger Machtfaktor ist, um militärische Vorteile zu erzielen (Evron & Bitzinger, 2023; Scharre, 2023, S. 21). Nichtdemokratische Regierungen mögen ein anderes Risikokalkül haben, aber die meisten von ihnen setzen ihr eigenes Überleben nicht für neue, aber unausgereifte Ideen, Konzepte und Technologien aufs Spiel. Dies verdeutlicht, wie angesprochen, dass sich die Vorstellungen führender und herausfordernder Akteure im strategischen Wettbewerb angeleichen, vor allem wenn die Risiken neuartiger Ansätze die erwarteten Vorteile überwiegen (Liou et al., 2015, S. 159).
Gleichzeitig gibt es jedoch Grund zur Wachsamkeit, was die Entwicklung der militärischen KI in diesen drei Ländern angeht. Zwei Aspekte verdienen besondere Aufmerksamkeit. Erstens ist mehr Forschung zu Konzepten, Strukturen und Instrumenten der Nachahmung in Nichtdemokratien erforderlich, die gelernt haben, mit Sanktionen umzugehen, die sich gegen ihre Wirtschaft, strategischen Industrien und kritischen Technologien richten. China, Iran und Russland sind davon überzeugt, dass der globale Einfluss der Vereinigten Staaten schwindet. Dies könnte sie dazu veranlassen, die Entschlossenheit Washingtons und seiner Verbündeten auch durch den Einsatz militärischer KI zu testen. In dieser Hinsicht sind der Einsatz von militärischer KI im Zusammenhang mit den jeweiligen Nukleararsenalen und zur Ausübung der innerstaatlichen Kontrolle zwei wichtige Entwicklungsfelder, die genau beobachtet werden müssen.
Zweitens ist Russland ein etablierter Exporteur von Rüstungsgütern; China steigert seine Rüstungsexporte in den Nahen und Mittleren Osten, nach Afrika und Lateinamerika, und Iran unterhält ein überregionales Netzwerk nichtstaatlicher Gewaltakteure, die an seiner Stelle kämpfen. Auch wenn es noch zu früh ist zu sagen, inwieweit diese drei Länder bereit sind, militärische KI zu exportieren und andere durch Wissens- und Technologietransfer zu unterstützen, müssen diese Entwicklungsvektoren stärker berücksichtigt werden. Einerseits könnte KI das Gleichgewicht zwischen den drei Mächten verschieben. Insbesondere Irans KI-basierte militärische Fähigkeiten könnten die russischen und chinesischen Interessen im Nahen Osten gefährden. Andererseits wird oft missachtet, dass auch nichtstaatliche Gewaltakteure zu Innovation fähig sind (Veilleux-Lepage & Archambault, 2022). Darauf aufbauend könnte z. B. Iran seine Stellvertreter als „Gefechtsfeldassistenten“ nutzen, um die Vorteile neuer KI-bezogener Konzepte und Technologien vor dem eigenen Einsatz in verschiedenen Einsatzgebieten zu evaluieren.

25.4 Schlussfolgerung

Die militärische KI-Nutzung schreitet international voran, doch die länderspezifischen Motive, Antriebskräfte, das Tempo und die Prioritäten sind sehr unterschiedlich. Das gegenwärtig dominierende Paradigma einer daten- und menschenzentrierten militärischen KI ist dabei erstaunlich stabil – unabhängig von den strategischen Ambitionen, der technisch-industriellen Reife oder dem politischen System eines Landes. Dies wirft abschließend zwei Fragen zu den vorherrschenden Vorstellungen bezüglich militärischer KI auf.
Erstens: Was glauben wir zu erkennen, wenn wir über militärische KI sprechen? Diese Frage betrifft die Grenzen der dominierenden sozio-technischen Vorstellungen von militärischer KI (Jasanoff & Sang-Hyun, 2015). Derzeit ist die vorherrschende Literatur, die zu Beginn dieses Kapitels kurz erörtert wurde, auf Datenzentrierung und damit auf KI der zweiten Welle fixiert. Gestützt darauf schreiben aktuelle Analysen der militärischen KI überwiegend Beschränkungen und Möglichkeiten zu, die für das traditionelle maschinelle Lernen zutreffen, aber nicht in gleicher Weise für die KI der dritten Welle gelten. Es ist wichtig, die Grenzen dieser analytischen Perspektive zu verstehen, da sie zu inadäquaten Annahmen über die möglichen Auswirkungen militärischer KI führen kann. Die oft diskutierte Idee der sogenannten Flash Wars (Scharre, 2018), die analog zu Börsencrashs von technischen Pannen verursacht werden, basiert auf der irrigen Vorstellung, dass KI unaufhaltsam in eine bestimmte Richtung geht und eine eskalierende Dynamik erzeugt. Im Gegensatz dazu weiß KI der dritten Welle, wann sie aufgrund verwirrender Signale z. B. auf dem Schlachtfeld von weiteren Handlungen absehen muss – sich in den Stillhaltemodus begibt – oder wann eine Deeskalation vorteilhafter wäre als das aggressive Festhalten am eingeschlagenen Weg (Hofstetter, 2014).
Lösungen der dritten KI-Welle haben erhebliche Auswirkungen auf die Regulierung, da die entsprechenden Technologien einem harten geoökonomischen Wettbewerb zwischen Nationen unterliegen. Dieser zielt darauf ab, aufkommende Herausforderer einzudämmen, um den Vorsprung bislang führender Nationen zu wahren. Im Hinblick auf die Eindämmung ist die dritte Welle der KI ambivalent. Die Tatsache, dass sie weniger datenintensiv ist, wird sie weniger anfällig für datenbedingte Beschränkungen machen. Die dritte Welle der KI erfordert jedoch immer noch beträchtliche Rechenleistung, was die Tür für eine Regulierung öffnet, die auf diesen Aspekt abzielt, um die gegnerischen Rechenkapazitäten zu begrenzen. Dies ist jedoch leichter gesagt als getan, da spezifische mathematische Methoden bewusst dafür entwickelt werden, den Rechenbedarf von KI-Lösungen der dritten Welle zu minimieren. Daraus folgt, dass diese KI-Lösungen hinsichtlich ihrer Verbreitung deutlich schwieriger zu erfassen und einzudämmen sind, weil sie auf eine deutlich stärkere mathematische Modellierung und höhere konzeptionelle Ausgereiftheit setzen – genau diese beiden Faktoren werden jedoch voraussichtlich auch die Diffusionsgeschwindigkeit der KI der dritten Welle drosseln.
Diese Faktoren mögen auch erklären, weshalb KI der dritten Welle nach wie vor schwierig zu verstehen ist und ein differenzierteres Vokabular erfordert, um ihre Wirkung zu beschreiben. Ein Beispiel hierfür ist die Beschreibung des Verhaltens des Valkyrie-Systems, eines experimentellen und unbemannten Flugzeugs der US-Luftwaffe, das KI nutzt:
„Major Elder achtet unter anderem auf Diskrepanzen zwischen den Computersimulationen vor dem Flug und den Handlungen der Drohne, wenn sie tatsächlich in der Luft ist (…) oder, was noch besorgniserregender ist, auf Anzeichen von „emergentem Verhalten“, bei dem die Roboterdrohne auf eine potenziell schädliche Weise handelt“ (Lipton, 2023, eigene Übersetzung mit Hervorhebung).
Emergenz bedeutet in diesem Zusammenhang, dass die KI-verbesserte Valkyrie eine Reihe von Drehungen ausführte, um die Infrarotsensoren an Bord optimal zu nutzen. Die Drehungen führten zu einem optimalen Einsatz der Sensoren und damit einem besseren Leistungsergebnis, doch die menschlichen Bediener haben dieses Verhalten nicht erwartet. Wird ein solches Verhalten als „potenziell schädlich“ dargestellt, verlieren Streitkräfte Zugriff auf genau jenen Mehrwert, den KI erzielen kann, wenn sie sich anders verhält als der Mensch (Demarest, 2024). Wesentlich wichtiger ist daher die Frage, ob das System, das KI-gesteuertes emergentes Verhalten hervorbringt, dieses auf erklärbare und überprüfbare Weise erzeugt, da dies für die militärische Zulassung von KI-Lösungen der dritten Welle entscheidend ist.
Wann wissen wir, dass KI auf dem Schlachtfeld eingesetzt wurde? Diese Frage ist alles andere als einfach zu beantworten, denn als Software entzieht sich KI meist der menschlichen Wahrnehmung. Um effektiv zu sein, muss KI in Sensoren, Effektoren, Plattformen oder Entscheidungsverfahren eingebettet und mit anderen Technologien kombiniert werden. Die tatsächliche Wirkung von KI lässt sich also nur im Zusammenspiel mit diesen bewerten, so dass genau diese Abhängigkeit auch die Leistung der KI beeinflusst. Dies wiederum unterstreicht die Notwendigkeit, dass Streitkräfte die Ziele und den Entwicklungsplan, mit dem sie einen KI-gestützten Fähigkeitszuwachs erreichen wollen, viel genauer definieren müssen. Nur so ist es nämlich möglich, überhaupt zu erkennen, ob Anstrengungen zur KI-Einführung im Zielkorridor liegen und die gewünschten Leistungssteigerungen erzielen. Dabei wird deutlich, dass die Frage, welche Nation bei militärischer KI führend ist, zwar populär, aber ziemlich irreführend ist. Es gibt keinen aggregierten Maßstab, der den Stand der Transformation in Bezug auf die kulturelle, konzeptionelle, organisatorische, technologische und operative Reife bei der Einführung von militärischer KI erfassen würde. Vielmehr muss der Fortschritt eines jeden Landes im Hinblick auf seine eigenen Ambitionen, seine spezifischen Herausforderungen, die Ausgereiftheit seiner verteidigungsindustriellen Technologiebasis und die Fähigkeiten seiner Streitkräfte analysiert werden. Folglich können Länder, die mit Blick auf militärische KI nach Inspiration suchen, aus einer ständig wachsenden Zahl von Vorbildern wählen. Ob dies jedoch eher stabilisierend oder destabilisierend wirkt, ist, um Alexander Wendt (1992) zu paraphrasieren, abhängig davon, was Streitkräfte aus militärischer KI machen wollen.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Download
Title
Zum aktuellen Stand des weltweiten militärischen Einsatzes Künstlicher Intelligenz
Author
Heiko Borchert
Copyright Year
2026
Publisher
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-71567-3_25
1
Doktrin, Organisation, Ausbildung, Material, Führung/Ausbildung, Personal, Einrichtungen, Interoperabilität.
 
2
Das US-Verteidigungsministerium sammelt gemäß Mehta (2017) zwar täglich rund 22 Terabyte Daten, aber Google verarbeitet rund 20 Petabyte (oder 20.000 Terabyte) pro Tag (Skill-Lync, 2023).
 
3
Ein virtuelles Gefechtsfeld im Sinne eines Defense Metaverse bildet die wichtigsten Parameter der militärischen Einsatzumgebung und der Einsatzbestimmungen inklusive der Merkmale der eingesetzten technischen Systeme ab (Borchert et al., 2023a, b).
 
go back to reference Abraham, Y. (2023). A mass assassination factory. Inside Israel’s calculated bombing of Gaza. +972 Magazine. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/. Zugegriffen am 15.11.2024.
go back to reference Adamsky, D. (2010). The culture of military innovation. The impact of cultural factors on the revolution in military affairs in Russia, the US, and Israel. Stanford University Press.CrossRef
go back to reference Allen, G. C. (2020). Understanding AI Technology. Joint Artificial Intelligence Center/Department of Defense. https://www.ai.mil/docs/Understanding%20AI%20Technology.pdf. Zugegriffen am 15.11.2024.
go back to reference Bai, T., et al. (2021). Recent advances in adversarial training for adversarial robustness, arXiv, 2102.01356. https://arxiv.org/abs/2102.01356. Zugegriffen am 15.11.2024.
go back to reference Barnett, J. (2021). DOD to embed data experts within combatant commands. Workscoop. https://workscoop.com/2021/06/22/dod-new-data-and-ai-initiative-for-combatant-commands-jadc2. Zugegriffen am 15.11.2024.
go back to reference Barzhaskha, I. (2023). Wargames and AI. A dangerous mix that needs ethical oversight. Bulletin of the Atomic Scientists. https://thebulletin.org/2023/12/wargames-and-ai-a-dangerous-mix-that-needs-ethical-oversight/. Zugegriffen am 15.11.2024.
go back to reference Borchert, H., et al. (2021). Beware the Hype. What Conflicts in Ukraine, Syria, Libya, and Nagorno-Karabakh (Don’t) Tell Us About the Future of War. Defense AI Observatory. https://defenseai.eu/daio_beware_the_hype. Zugegriffen am 15.11.2024.
go back to reference Borchert, H., et al. (2023a). Weiter denken! Internationale Politik, 6, 49. https://internationalepolitik.de/de/weiter-denken. Zugegriffen am 15.11.2024.
go back to reference Borchert, H., et al. (2023b). Leveraging the defense metaverse. Unlocking the power of AI for force development. The Air Power Journal, 3, 23–32. https://www.diacc.ae/wp-content/uploads/2023/10/P3-Dr.-Heiko-Borchert-Leveraging-the-Defense-Metaverse-Defense-AI-Observatory-www.diacc_.ae-www.theairpowerjournal.com-www.spps_.se_.pdf. Zugegriffen am 15.11.2024.
go back to reference Borchert, H., et al. (2024). The very long game. 25 case studies on the global state of defense AI. Springer Nature.CrossRef
go back to reference Bousquet, A. (2022). The scientific way of warfare. Order and chaos on the battlefield of modernity. Hurst.
go back to reference Brandlhuber, C. (2021). GhostPlay: AI-Enhanced Decision Support for Military Operations. Vorlesung an der Helmut-Schmidt-Universität, 03. Dezember. Unveröffentlicht.
go back to reference Chahal, H., et al. (2020). Messier than oil. Assessing data advantage of military AI. Center for Security and Technology. https://cset.georgetown.edu/wp-content/uploads/Messier-than-Oil-Brief-1.pdf. Zugegriffen am 15.11.2024.
go back to reference CIGI. (undatiert). The ethics of automated warfare and artificial intelligence. Webinar-Serie. https://www.cigionline.org/the-ethics-of-automated-warfare-and-artificial-intelligence/. Zugegriffen am 15.11.2024.
go back to reference CSIS. (2023). Missile Defense in Israel. A Conversation with Moshe Patel. https://www.csis.org/analysis/missile-defense-israel-conversation-moshe-patel. Zugegriffen am 15.11.2024.
go back to reference Cummings, M. L. (2018). Artificial intelligence and the future of warfare. In M. L. Cummings et al. (Hrsg.), Artificial intelligence and international affairs. Disruption anticipated (S. 7–18). Chatham House. https://www.chathamhouse.org/2018/06/artificial-intelligence-and-international-affairs. Zugegriffen am 15.11.2024.
go back to reference DARPA. (o.J.). AI Next Campaign (archived). https://www.darpa.mil/work-with-us/ai-next-campaign. Zugegriffen am 15.11.2024.
go back to reference Demarest, C. (2024). AI-enabled Valkyrie drone teases future of US Air Force fleet. Defense News. https://www.defensenews.com/unmanned/uas/2024/01/18/ai-enabled-valkyrie-drone-teases-future-of-us-air-force-fleet/. Zugegriffen am 15.11.2024.
go back to reference Department of Defense. (2018). Summary of the 2018 Department of Defense AI Strategy. https://apps.dtic.mil/sti/pdfs/AD1114486.pdf. Zugegriffen am 15.11.2024.
go back to reference Diehl, C., & Lambach, D. (2022). (K)ein ‘AI Arms Race’? Technologieführerschaft im Verhältnis der Großmächte. Zeitschrift für Außen- und Sicherheitspolitik, 15, 263–282. https://link.springer.com/article/10.1007/s12399-022-00915-7. Zugegriffen am 15.11.2024.CrossRef
go back to reference Evron, Y., & Bitzinger, R. A. (2023). The fourth industrial revolution and military-civil fusion. A new paradigm for military innovation? Cambridge University Press.CrossRef
go back to reference Galliott, J., & Scholz, J. (2020). The case for ethical AI in the military. In M. D. Dubber et al. (Hrsg.), The Oxford handbook of ethics and AI (S. 684–702). Oxford University Press.CrossRef
go back to reference Goldfarb, A., & Lindsay, J. R. (2021/22). Prediction and judgment. Why artificial intelligence increases the importance of humans in war. International Security, 3, 77–50.
go back to reference Hicks, K. (2023). Deputy Secretary of Defense Kathleen Hicks’ Remarks: “Unpacking the Replicator Initiative” at the Defense News Conference (As Delivered). https://www.defense.gov/News/Speeches/Speech/Article/3517213/deputy-secretary-of-defense-kathleen-hicks-remarks-unpacking-the-replicator-ini/. Zugegriffen am 15.11.2024.
go back to reference Hofstetter, Y. (2014). Sie wissen alles. C. Bertelsmann.
go back to reference Hofstetter, Y., & Verbovzsky, J. (2023). How AI Learns the Bundeswehr’s ‚Innere Führung‘. Defense AI Observatory. https://defenseai.eu/daio_study2310. Zugegriffen am 15.02.2024.
go back to reference Horowitz, M. C. (2018). Artificial intelligence, international competition, and the balance of power. Texas National Security Review., 1, 36–57. https://tnsr.org/2018/05/artificial-intelligence-international-competition-and-the-balance-of-power/. Zugegriffen am 15.11.2024
go back to reference Horowitz, M. C., & Scharre, P. (2021). AI and international stability. Risks and confidence-building measures. Center for New American Security. https://www.cnas.org/publications/reports/ai-and-international-stability-risks-and-confidence-building-measures. Zugegriffen am 15.11.2024.
go back to reference Horowitz, M. C., et al. (2018). Strategic competition in an era of Artificial Intelligence. Center for New American Security. https://www.cnas.org/publications/reports/strategic-competition-in-an-era-of-artificial-intelligence. Zugegriffen am 15.11.2024.
go back to reference Jasanoff, S., & Sang-Hyun, K. (Hrsg.). (2015). Dreamscapes of modernity. Sociotechnical imaginaries and the fabrication of power. University of Chicago Press.
go back to reference Jensen, B. M., et al. (2022). Information in war. Military innovation, battle networks, and the future of artificial intelligence. Georgetown University Press.CrossRef
go back to reference Johnson, J. (2021). Artificial intelligence and the future of war: The US, China, and strategic stability. Manchester University Press.
go back to reference Lindsay, J. R. (2023/24). War is from Mars, AI Is from Venus: Rediscovering the Institutional Context of Military Automation. Texas National Security Review. https://tnsr.org/2023/11/war-is-from-mars-ai-is-from-venus-rediscovering-the-institutional-context-of-military-automation/. Zugegriffen am 15.11.2024.
go back to reference Lin-Greenberg, E. (2020). Allies and artificial intelligence: Obstacles to operations and decision-making. Texas National Security Review, 3, 56–76. https://doi.org/10.26153/tsw/8866. Zugegriffen am 15.02.2024
go back to reference Liou, Y.-M., et al. (2015). The imitation game: Why don’t rising powers innovate their militaries more. The Washington Quarterly, 38, 157–174. https://doi.org/10.1080/0163660X.2015.1099030. Zugegriffen am 15.11.2024.CrossRef
go back to reference Lipton, E. (2023). AI Brings the Robot Wingman to Aerial Combat. New York Times. https://www.nytimes.com/2023/08/27/us/politics/ai-air-force.html. Zugegriffen am 15.11.2024.
go back to reference Littman, M. L. (2001). Markov decision processes. In N. J. Smelser & P. B. Baltes (Hrsg.), International encyclopedia of the social and behavioral sciences (S. 9240–9242). Elsevier. https://doi.org/10.1016/B0-08-043076-7/00614-8. Zugegriffen am 15.11.2024CrossRef
go back to reference Mehta, A. (2017). Pentagon tech advisers target how the military digests data. Defense News. https://www.defensenews.com/pentagon/2017/04/06/pentagon-tech-advisers-target-how-the-military-digests-data/. Zugegriffen am 15.11.2024.
go back to reference Michel, A. H. (2023). Recalibrating assumptions on AI. Towards an evidence-based and inclusive AI policy discourse. Chatham House. https://www.chathamhouse.org/2023/04/recalibrating-assumptions-ai. Zugegriffen am 15.02.2024.
go back to reference Mintzberg, H., et al. (2005). Strategy Safari. A guided tour through the wilds of strategic management. Free Press.
go back to reference O’Brien, P. P. (2024). The real AI weapons are drones, Not nukes. The Atlantic. https://www.theatlantic.com/ideas/archive/2024/02/artificial-intelligence-war-autonomous-weapons/677306/. Zugegriffen am 15.11.2024.
go back to reference Payne, K. (2021). I & Warbot. The dawn of artificially intelligent conflict. Hurst & Company.CrossRef
go back to reference Phillips, P. J., & Pohl, G. (2021). Countering intelligence algorithms. The RUSI Journal, 165, 22–32. https://doi.org/10.1080/03071847.2021.1893126. Zugegriffen am 15.11.2024.
go back to reference Popescu, I. C. (2018). Grand strategy vs emergent strategy in the conduct of foreign policy. Journal of Strategic Studies, 41, 438–460.CrossRef
go back to reference President of Ukraine. (2024). I signed a decree initiating the establishment of a separate branch forces – the Unmanned Systems Forces. Ansprache des Präsidenten der Ukraine. https://www.president.gov.ua/en/news/pidpisav-ukaz-yakij-rozpochinaye-stvorennya-okremogo-rodu-si-88817. Zugegriffen am 15.11.2024.
go back to reference Raska, M. (2016). Military innovation in small states. Creating a reverse asymmetry. Routledge.
go back to reference Raska, M., & Bitzinger, R. (2023). The AI wave in defense innovation. Assessing military artificial intelligence, strategic capabilities and trajectories. Routledge.
go back to reference Reeves, M., et al. (2013). Ambidexterity. The Art of thriving in complex environments. Boston Consulting Group. https://www.bcg.com/publications/2013/strategy-growth-ambidexterity-art-thriving-complex-environments. Zugegriffen am 15.11.2024.
go back to reference Rowe, N. C. (2022). The comparative ethics of artificial intelligence methods for military applications. Frontiers, 5. https://www.frontiersin.org/articles/10.3389/fdata.2022.991759/full. Zugegriffen am 15.11.2024.
go back to reference Ryan, M. (2024). Russia’s Adaptation Advantage. Foreign Affairs. https://www.foreignaffairs.com/ukraine/russias-adaptation-advantage. Zugegriffen am 15.11.2024.
go back to reference Scharre, P. (2018). A million mistakes a second. Foreign Policy. https://foreignpolicy.com/2018/09/12/a-million-mistakes-a-second-future-of-war/. Zugegriffen am 15.11.2024.
go back to reference Scharre, P. (2019). Army of none. W. W. Norton & Company.
go back to reference Scharre, P. (2021). Debunking the AI arms race theory. Texas National Security Review, 4, 121–132. https://tnsr.org/2021/06/debunking-the-ai-arms-race-theory/. Zugegriffen am 15.11.2024
go back to reference Scharre, P. (2023). Four battlegrounds. W. W. Norton & Company.
go back to reference Scharre, P., & Lamberth, M. (2022). Artificial Intelligence and arms control. Center for New American Security. https://www.cnas.org/publications/reports/artificial-intelligence-and-arms-control. Zugegriffen am 15.11.2024.
go back to reference Silver, D., et al. (2017). Mastering the game of Go without human knowledge. Nature., 550, 354–359. https://www.nature.com/articles/nature24270. Zugegriffen am 15.11.2024.CrossRef
go back to reference Skill-Lync. (2023). How Google handles over 40,000 Petabytes of data on a daily basis. https://skill-lync.com/blogs/how-google-handles-over-40000-petabytes-of-data-on-a-daily-basis. Zugegriffen am 15.11.2024.
go back to reference Stanley-Lockman, Z. (2021). Responsible and ethical military AI. Allies and allied perspectives. Center for Security and Emerging Technologies. https://cset.georgetown.edu/publication/responsible-and-ethical-military-ai/. Zugegriffen am 15.11.2024.
go back to reference Tangredi, S., & Galdorisi, G. V. (2021). AI at war. How big data artificial intelligence and machine learning are changing naval warfare. Naval Institute Press.
go back to reference Tucker, P. (2024). The Pentagon is already testing tomorrow’s AI-powered swarm drones, ships. Defense One. https://www.defenseone.com/technology/2024/01/pentagon-already-testing-tomorrows-ai-powered-swarm-drones-ships/393528/. Zugegriffen am 15.11.2024.
go back to reference Veilleux-Lepage, Y., & Archambault, E. (2022). A comparative study of non-state violent drone use in the Middle East. International Centre for Counter-Terrorism. https://www.icct.nl/publication/comparative-study-non-state-violent-drone-use-middle-east. Zugegriffen am 15.11.2024.
go back to reference Vettoruzzo, A., et al. (2023). Advances and challenges in meta-learning: A technical review, arXiv, 2307.04722. https://doi.org/10.48550/arXiv.2307.04722. Zugegriffen am 15.11.2024.
go back to reference Vinyals, O., et al. (2019). Grandmaster level in StarCraft II suing multi-agent reinforcement learning. Nature, 575, 350–354. https://www.nature.com/articles/s41586-019-1724-z. Zugegriffen am 15.11.2024.CrossRef
go back to reference Wendt, A. (1992). Anarchy is what states make of it: The social construction of power politics. International Organization, 46, 391–425.CrossRef
go back to reference Wright, N. D. (2019). Artificial Intelligence, China, Russia, and the global order. Maxwell Air Force Base. Air University Press.
go back to reference Zhuang, F., et al. (2019). A comprehensive survey on transfer learning, arXiv, 1911.02685. https://doi.org/10.48550/arXiv.1911.02685. Zugegriffen am 15.11.2024.

Premium Partner

    Image Credits
    Neuer Inhalt/© ITandMEDIA, Nagarro GmbH/© Nagarro GmbH, AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, USU GmbH/© USU GmbH, Ferrari electronic AG/© Ferrari electronic AG