Künstliche Intelligenz in der Militärtechnologie
Soziologische, kulturelle und ethische Perspektiven
- 2025
- Buch
- Herausgegeben von
- Kairi Talves
- Dierk Spreen
- Verlag
- Springer Fachmedien Wiesbaden
Über dieses Buch
In diesem Buch werden die Herausforderungen im Bereich der aktuellen und zukünftigen Militärtechnologie kritisch und fachübergreifend beleuchtet. Der Band trägt zur Versachlichung der Debatte über den Einsatz von Künstlicher Intelligenz in militärischen Kontexten bei und bietet einen differenzierten, informierten und offenen Zugang zur Thematik.
Der Band gliedert sich in drei Teile. Im ersten Teil werden Perspektiven auf KI erörtert; wie KI-Systeme von der Öffentlichkeit, von Soldaten und in kulturellen Diskursen verstanden und konstruiert werden. Der Schwerpunkt liegt dabei auf militärischen Anwendungen. Der zweite Teil befasst sich mit den Herausforderungen und Veränderungen, die der Einsatz von KI im Militär mit sich bringt, und geht der Frage nach, wie damit umzugehen ist. Der dritte Teil untersucht die kommunikativen Herausforderungen, die sich aus dem Einsatz von KI im Militär ergeben, sowie die damit verbundenen Chancen und Risiken. Das hochaktuelle und zeitgemäße Buch richtet sich an Forscher und Studenten aller Fachrichtungen, die sich für Militärtechnologie interessieren, sowie an alle, die sich für KI und neue Technologien interessieren.
Inhaltsverzeichnis
-
Frontmatter
-
KI verstehen
-
Frontmatter
-
Angst vor Robotern – Kulturelle Perspektiven auf technologische Autonomie
Dierk Spreen, Kairi TalvesZusammenfassungSeit der Wende zum 19. Jahrhundert wird technologische Autonomie kritisch bewertet und vor ihr gewarnt. Der Beitrag schlüsselt diesen Angstdiskurs exemplarisch auf. Die Untersuchung beginnt mit einer Interpretation von Goethes Der Zauberlehrling. Anschließend werden die unheimliche Natur des Automaten in E. T. A. Hoffmanns Der Sandmann, der Vernichtungskrieg der Roboter gegen die Menschen in Karel Čapeks R.U.R. und den Terminator-Filmen sowie Isaac Asimovs Einführung der Roboterethik und die darauffolgenden Ängste untersucht. Schließlich wird ein vergleichender Blick auf die Wahrnehmung von Robotern in östlichen und westlichen Kulturen geworfen. Im Laufe dieser Untersuchungen lassen sich verschiedene Alarm-Topoi identifizieren, wobei militärische Roboter eine Rolle spielen. Als solche Alarm-Topoi identifizieren wir Kontrollverlust, Replikation, Überlegenheit, Ähnlichkeit und Zerstörung/Vernichtung. Diese Diskurstopoi lassen sich miteinander in verschiedenen Mischungen kombinieren, um Szenarien zu kommunizieren, die Angst vor Robotern oder technologischer Autonomie auslösen. Dieser Alarm-Diskurs ist nicht unausweichlich, denn es gibt Alternativen. Eine Alternative ist die Vorstellung einer ethischen Selbststeuerung von Automaten, eine andere zeigt der Blick über den Tellerrand der westlichen Kultur. -
Cyborg Soldiers und ethisches Enhancement
Posthumanismus, Menschenwürde und militärische Ethik mit Helmuth Plessner und Niklas Luhmann Dierk SpreenZusammenfassungDie Symbiose von Mensch und moderner Technologie (‚Cyborg‘) stellt aus der Perspektive der Philosophischen Anthropologie kein Übergangsstadium zu einer Maschinenzivilisation im transhumanistischen Sinne dar. Insofern kann die folgende Argumentation als Beitrag zu einer posthumanen Debatte gelten – allerdings als ein Beitrag, der die Cyborgisierung im Rahmen des Menschenmöglichen verortet. Die Bezeichnung ‚posthuman‘ meint dann nur, dass über das Verhältnis zwischen Mensch und Maschine nachgedacht wird. Diese Perspektive unterscheidet sich dem Posthumanismus-Verständnis, das im Fahrwasser einer ‚symmetrischen Anthropologie‘ fundamentale Differenzen in Kompetenzniveaus durch Symmetrisierung abschwächt. Im Einzelnen wird zunächst das Reglermodell vorgestellt. Anschließend wird das Konzept menschlicher Cyborgs entwickelt. Hiervon ausgehend werden Fragen an die posthumanistische Sozialtheorie formuliert sowie ein Begriff menschlicher Würde entfaltet. In den folgenden Kapiteln wird die erarbeitete Perspektive auf den militärischen Kontext bezogen. Einerseits soll dadurch besser verständlich werden, was ethisches Enhancement meinen kann. Andererseits zeigen sich ethische Probleme der posthumanen Sozialtheorie. Neben Plessner wird auch auf Niklas Luhmann zurückgegriffen. Auf eine sozialtheoretische Synthese beider Ansätze wird hingegen verzichtet. Es geht lediglich um ein Verständnis des Phänomens, wobei beide Theoriemodelle als Hilfsmittel dienen sollen. -
Autonome Waffensysteme in der Science-Fiction
Bernd FlessnerZusammenfassungDie Gattung Science-Fiction lotet den vor uns liegenden Möglichkeitsraum mit literarischen Mitteln aus. In den Texten lassen sich somit implizierte Prognosen finden, vor allem über zukünftige Technologien. Der Beitrag nutzt diese Eigenschaft, um exemplarisch implizierte Prognosen aufzuzeigen, die autonome Waffensysteme betreffen. Folgt man den Texten, so werden sie auch realisiert werden, sofern sie es nicht schon sind. -
Die SMART-Initiative – politische Grenzen des Einsatzes von Künstlicher Intelligenz im Gefechtsfeld der Zukunft?
Ferdinand Gehringer, Alexander SchusterZusammenfassungDer Beitrag untersucht den Einsatz von Künstlicher Intelligenz (KI) im militärischen Bereich und die damit verbundenen politischen Herausforderungen. Er beschreibt die aktuellen Anwendungen von KI in der Datenanalyse, Prozessoptimierung, Entscheidungsfindung, Aufklärung sowie Cyber- und Kommunikationssicherheit. Zudem wird die zukünftige Nutzung von autonomen Waffensystemen (LAWS) und Schwarmtechnologien diskutiert. Ein zentraler Punkt ist die fehlende internationale Regulierung und die unterschiedlichen Positionen von Organisationen wie den Vereinten Nationen, der NATO, der Europäischen Union und einzelnen Ländern wie den USA, China und Russland. Der Text betont die Notwendigkeit einer neuen Initiative, den Strategic Military AI Regulation Talks (SMART), um eine globale, dynamische und transparente Regulierung zu erreichen. Diese soll klare Definitionen, Einsatzszenarien und Verantwortlichkeiten festlegen und möglichst viele Staaten einbinden. SMART zielt darauf ab, die Verbreitung und den Einsatz von LAWS zu regulieren und die ethischen Grundsätze zu wahren, indem menschliche Kontrolle über tödliche Entscheidungen sichergestellt wird. Die Initiative soll durch praxisnahe Simulationen und internationale Zusammenarbeit unterstützt werden, um die Herausforderungen und Risiken von KI im militärischen Kontext effektiv zu bewältigen. -
Akzeptanzmodell für künstlich intelligente Militärtechnologien im Kontext kleiner Länder
Kairi Talves, Priit Värno, Eleri LillemäeZusammenfassungIn diesem Artikel wird die Wahrnehmung von KI durch Militärangehörige in Estland, einem kleinen Land am östlichen Rand der NATO, untersucht. Er stützt sich auf Daten, die bei Interviews in den Streitkräften erhoben wurden. Aufgrund seiner geringen Größe und seiner geografischen Lage befindet sich Estland in einer einzigartigen Sicherheitssituation, die eine ständige Anpassung des Landes an sich verändernde Bedrohungen erfordert. Der Artikel schlägt ein Modell für die Akzeptanz von Militärtechnologie in einem kleinen Land vor und konzentriert sich dabei auf Unterschiede in der Wahrnehmung der Nutzbarkeit von Technologie in einem militärischen Kontext. Der Artikel erörtert auch Fragen des Vertrauens in Militärtechnologie. Die Ergebnisse zeigen, dass Militärangehörige in autonomen Technologien klare Vorteile sehen, da sie die Risiken für Menschenleben verringern. Ethische und rechtliche Bedenken in Bezug auf Verantwortung und Entscheidungsfindung sind wichtig, allerdings aus einer eher praktischen Perspektive. In der Studie wird auch die Bedeutung der Benutzererfahrung hervorgehoben. Gleichzeitig behindern mangelndes Vertrauen in die Entscheidungsfähigkeit von KI und die Notwendigkeit menschlicher Kontrolle die Ausschöpfung des vollen Potenzials der Systeme. Das von uns vorgeschlagene Modell beschreibt sowohl militärspezifische als auch kontextbezogene Faktoren und bietet Einblicke in die potenziellen Vorteile und Herausforderungen der KI-Implementierung im Kontext des Militärs eines kleinen Landes.
-
-
KI und militärische Konflikte
-
Frontmatter
-
Menschlicher Faktor und Militärtechnologie in der Kriegführung
Igor Kopõtin, Kaarel Piirimäe, Arto OllZusammenfassungDie Erfahrung der Militärgeschichte zeigt, dass jede militärtechnische Erfindung nur dann wirksam sein kann, wenn sie erfolgreich in die militärische Organisation integriert wird und ihr Einsatz im Rahmen eines theoretischen Konzepts durchdacht wird. Der bloße Besitz von Militärtechnologie führt nicht immer zu Ergebnissen oder zum Sieg im Krieg. Letzten Endes ist der Krieg immer noch ein Krieg zwischen Menschen, und der menschliche Faktor wird immer entscheidend sein, denn die Waffe, was auch immer sie sein mag, wird immer ein Werkzeug in menschlicher Hand bleiben (vorausgesetzt, dass der Mensch auch in Zukunft in der Lage sein wird, die Kontrolle über die künstliche Intelligenz zu behalten). Das liegt in der Natur des Krieges, wie die Militärgeschichte gezeigt hat, aber es liegt auch in der Natur der künstlichen Intelligenz, dass sie die Zukunft im Wesentlichen unvorhersehbar macht. -
Zum verantwortbaren Einsatz künstlich intelligenter Systeme im Krieg der Zukunft
Wolfgang Koch, Jörg Vollmer, Florian KeisingerZusammenfassungDie Steigerung natürlicher Wahrnehmung und Wirkens des Menschen durch künstlich intelligente Technologie erfordert nüchterne Betrachtungen. Dies gilt vor allem beim Einsatz von Künstlicher Intelligenz (KI) im militärischen Bereich. In aller Transparenz ist daher ein öffentlicher Diskurs über derartige Verteidigungstechnologien zu führen. Im Hinblick auf den verantwortbaren Einsatz künstlich intelligenter Systeme im Krieg der Zukunft betrachtet dieses Kapitel das Zusammenspiel von Wissenschaft und Technologie sowie den militärischen Anforderungen, die technischen Fähigkeiten benötigen. Umgekehrt öffnet Verständnis für das Potenzial KI-basierter Technologien neue operative Optionen. Darüber hinaus werden rechtliche und ethische Überlegungen beleuchtet. Eine subjektiv gefärbte Einschätzung der aktuellen Sicherheitslage bildet den Ausgangspunkt, aus der sich Elemente einer militärischen Bedrohungsanalyse ergeben. Eine begriffliche Präzisierung der Rolle von KI in der Daten- und Informationsfusion macht auf dieser Grundlage nachvollziehbar, warum Fusion Engines den Targeting Cycle beschleunigen müssen. Basierend auf dem rechtlich Geforderten und für den Missionserfolg Erforderlichen bilden Überlegungen zu Mensch-zentriertem Systems Design einen zentralen Abschnitt. Das Future Combat Air System dient als Beispiel für ihre mögliche Umsetzung. Da militärische KI die gesamte Denk- und Handlungsweise von Streitkräften beeinflusst, beschließen drei Empfehlungen dieses Kapitel. Möge es zu einem fruchtbaren Austausch zwischen den verschiedenen Communities führen, die sich mit militärischer Einsatzplanung und wehrtechnischer Forschung befassen. -
Künstliche Intelligenz (KI) und Bundeswehr aus Perspektive der Inneren Führung
Peter Andreas PoppZusammenfassungDie Innere Führung (InFü) beruht auf dem Leitbild des verantwortungsorientierten ‚Staatsbürgers in Uniform‘. Sie bildet für die Bundeswehr seit deren Gründung die gültige geistige Grundlage und Führungskonzeption. Über kurz oder lang stellen sich mit der Weiterentwicklung der Künstlichen Intelligenz (KI) allerdings Herausforderungen, weil dank technologischen Fortschritts die Letztverantwortung des Menschen zur Disposition gestellt ist. Der Artikel plädiert nicht gegen die Anwendung von KI als solche. Er soll militärische wie politische Entscheidungsträger sensibilisieren, sodass InFü auch in Zukunft nicht zur naiv abgeleiteten und damit determinierten Größe technischer Entwicklung gerinnt. Dabei ist bewusst das sicherheitspolitische Umfeld einbezogen. Derart kann KI zur großen Chance werden, die Einsatzbereitschaft der Streitkräfte sicherzustellen und dabei zugleich die Mündigkeit des Staatsbürgers in Uniform mit seiner Pflicht, sich immer der ethischen Letztverantwortung zu stellen, zu fördern. Die Bundeswehr, insbesondere ihre Bildungs- und Ausbildungseinrichtungen, stehen vor ihrer größten Bewährungsprobe – nicht nur hinsichtlich des professionellen Informations- und Wissensstandes in naturwissenschaftlich-technischen wie gesellschaftspolitisch-kulturellen Themenfeldern! Bildung und umsichtige wertorientierte Erziehung sind quer durch alle Dienstgradgruppen bilden das Gebot der Stunde. -
Autonome Waffensysteme und Internationales Recht
Stuart Casey-MaslenZusammenfassungDie Frage, ob Waffen, die sich bei ihrer Zielbestimmung und Gewaltanwendung auf künstliche Intelligenz stützen, eine Gefahr oder einen potenziellen Nutzen für die Menschheit darstellen, ist heftig umstritten. In diesem Kapitel wird argumentiert, dass autonome Waffensysteme nicht per se gegen das Völkerrecht verstoßen. Aber wie alle Waffen müssen sie in jedem bewaffneten Konflikt das humanitäre Völkerrecht und jederzeit die internationalen Menschenrechtsnormen einhalten. In bewaffneten Konflikten erfordert dies, dass autonome Waffensysteme in der Lage sind, zwischen militärischen Zielen und Zivilisten und zivilen Objekten zu unterscheiden, und dass sie auf keinen Fall übermäßige zufällige Schäden an der Zivilbevölkerung verursachen dürfen, die für einen menschlichen Befehlshaber vernünftigerweise vorhersehbar sind. Der Generalsekretär der Vereinten Nationen hat die Staaten aufgefordert, bis 2026 einen Vertrag zu schließen, der tödliche autonome Waffensysteme verbietet, die ohne menschliche Kontrolle oder Aufsicht funktionieren. Dieses Ziel wird nicht erreicht werden.
-
-
Herausforderungen für die Kommunikation
-
Frontmatter
-
Vertrauenswürdiges Systemdesign – die Perspektive des Faktors Mensch
Sonia Sousa, Gabriela Beltrão, Iuliia Paramonova, Debora C. Firmino de SouzaZusammenfassungDie zunehmende Verwendung autonomer und intelligenter Maschinen für die strategische Entscheidungsfindung hat das Verhältnis zwischen Technologie einerseits und dem Menschen, Organisationen und Gesellschaften andererseits massiv verändert. Dieses Phänomen hat das Bewusstsein für die potentiellen Vorteile sowie Nachteile der Nutzung solcher disruptiven Technologien sowie für die Notwendigkeit, ethischere, verantwortlichere und vertrauenswürdige Systeme aufrechtzuerhalten, erhöht. Der vorliegende Artikel stellt die Wichtigkeit eines analytischen Blicks in den Vordergrund, wenn es darum geht, die Vertrauenserfahrungen der Endnutzer während der diversen Phasen der Lösung des Human-Centered-Design (HCD) Problems mit einzubeziehen. Der Beitrag zielt darauf ab, die Integration von Mensch und System angesichts der Konsequenzen eines potentiellen KI-Versagens zu erleichtern und zu unterstützen. Er beruht auf dem Wissensbestand zur Mensch-Computer-Interaktion und betont die Wichtigkeit der Untersuchung des Vertrauensverhaltens der Nutzer, um die Integration des menschlichen Systems zu justieren und mögliche Herausforderungen für die Kommunikation im Systemdesign abzumildern. Der Beitrag spricht sich dafür aus, die Verwendung einer Mensch-Computer-Vertrauens-Skala (HCTS) als Forschungsblickwinkel in Betracht zu ziehen, um das Vertrauen der Nutzer in Wechselbeziehungen zwischen Mensch und Maschine (HMI) zu erhöhen. Das Ziel besteht darin, Systementwicklern und Technikern dabei zu helfen, die potentiellen Vorteile der Nutzung menschlicher Vertrauensfaktoren als Antriebskraft zu nutzen, um vertrauenswürdigere HMI-Kollaborationen zu schaffen. -
Die Herausforderungen in der Kommunikation zu militärischen Innovationen
Natascha Zowislo-Grünewald, Franz BeitzingerZusammenfassungMilitärische Innovationen sind ein Spezialfall technologischer Entwicklungen, die gesellschaftliche Teilbereiche oder die Gesellschaft als Ganzes betreffen. Sie können für andere unerwünschte Nebenfolgen auf anderen Gebieten haben und werden daher kritisch beäugt. Die Erosion des Fortschrittsoptimismus in modernen Gesellschaften hat dazu geführt, dass technische Innovationen nicht mehr unkritisch gesehen werden und eine Legitimation für sich beanspruchen müssen. Die Herstellung von Konsensfähigkeit von Risiken ist ein entscheidendes Ziel von Innovationskommunikation. Wissenschaftlich-technische Entwicklungen zu legitimieren kann sich jedoch nicht per se auf das wissenschaftliche Argument verlassen, sondern muss auch die Glaubwürdigkeit der Kommunikation und die Vertrauenswürdigkeit der handelnden Akteure berücksichtigen. Militärische Innovationen haben Chancen auf Akzeptanz, wenn die Logiken der Verteilung von Nutzen und Risiken als miteinander kompatibel angesehen werden. Dies ist insbesondere bei autonomen Systemen und KI relevant. Die Risikowahrnehmung von militärischen Innovationen wird stark von Unsicherheiten und subjektiven Faktoren bestimmt. Innovationskommunikation muss den sozialen, sinngebenden Kontext berücksichtigen und die Erwartungen der Adressaten antizipieren. Im Binnenverhältnis bedeutet dies, den internen Stakeholdern eine Lösung der wahrgenommenen Ziel-Mittel-Diskrepanzen anzubieten. Abschließend ist Innovationskommunikation nicht nur eine Form von Veränderungskommunikation, sondern auch eine Kommunikation über die Kontexte, in denen Innovationen entstehen und genutzt werden. -
Hybride Kriegführung und die Verteidigung des Diskurses
Natascha Zowislo-GrünewaldZusammenfassungDie hybride Kriegführung im 21. Jahrhundert ist durch eine Vielzahl von Begriffen gekennzeichnet, die jedoch oft undefiniert bleiben. Die Dokumente der Bundeswehr verwenden den Begriff ‚Strategische Kommunikation‘ nicht einheitlich und definieren ihn auch nicht. Im Gegensatz dazu verstehen die US-Streitkräfte Strategische Kommunikation als einen ganzheitlichen Ansatz, der sich verschiedenster Mittel bedient, um amerikanische Interessen zu unterstützen. Die britischen Streitkräfte definieren Strategische Kommunikation als ein Mittel, um nationale Interessen zu fördern. Die Definition des Begriffs Narrativ variiert zwischen den Dokumenten. Während die US-Streitkräfte ihn nicht definieren, wird er in den britischen Dokumenten als eine Geschichte definiert, die eine emotionale Rechtfertigung für ein politisches Ziel liefert. Die NATO definiert den Begriff Information Environment als eine Umgebung, die aus Individuen, Organisationen und Systemen besteht, die Informationen sammeln, verarbeiten und verbreiten. Die Untersuchung zeigt, dass die Definitionen von Strategischer Kommunikation, Narrativ und Information Environment zwischen den Dokumenten variieren. Dies kann zu Missverständnissen und Schwierigkeiten bei der Analyse und Auswertung von Daten führen. Die Einbindung von KI in die strategische Kommunikation ist ebenfalls ein wichtiger Aspekt, der jedoch in den Dokumenten nicht ausreichend berücksichtigt wird. -
Ganzheitliches (holistisches) Bowtie-Modell der KI-basierten Technologie in Verteidigungssystemen
Wie lassen sich effiziente und sinnvolle Ketten von Fähigkeiten, Kontrolle, Verantwortung und Verantwortlichkeit zwischen Menschen, KI, Organisation und Umwelt denken, erforschen und umsetzen? Frank Ole Flemisch, Dierk Spreen, Marie-Pierre Pacaux-Lemoine, Benjamin J. Knox, Kairi Talves, John Christopher BrillZusammenfassungDa die künstliche Intelligenz einen starken technologischen Druck auf unsere Gesellschaften und Verteidigungssysteme ausübt, erfordern die zunehmenden Anforderungen zur Bekämpfung der hybriden Kriegführung neue Methoden, um die Verteidigung in einem systemischen und vernetzten Ansatz zu denken. Das holistische Bowtie-Modell bietet eine Methode zum Verständnis der Verbindungen zwischen unseren Verteidigungssystemen und den sie umgebenden Organisationen und Gesellschaften auf einem vernetzten Planeten. Es ist von der Klasse der Bowtie-Modelle abgeleitet, die bereits seit Jahrzehnten in der Hazard- und Unfallanalyse verwendet werden, und ist inspiriert von dem chinesischen Prinzip der 天下 Tianxia und zugleich eine mögliche Antwort darauf. Das ganzheitliche Bowtie-Modell stellt kritische Situationen in den Mittelpunkt und wird schrittweise um weitere Systemebenen und ihrer kausalen Einfluss- und Kontrollschleifen erweitert. Der Artikel beginnt mit dem historischen Beispiel der Speere von Schöningen, führt das Konzept schrittweise ein, stellt es in den militärischen Kontext der modernen (kognitiven) Kriegführung, erörtert die Rolle von Kognition, Emotionen, Wahrheit, Sinnstiftung, Vertrauen und Misstrauen und schließlich Agilität als wesentliche Bausteine einer starken Allianz.
-
- Titel
- Künstliche Intelligenz in der Militärtechnologie
- Herausgegeben von
-
Kairi Talves
Dierk Spreen
- Copyright-Jahr
- 2025
- Electronic ISBN
- 978-3-658-47996-1
- Print ISBN
- 978-3-658-47995-4
- DOI
- https://doi.org/10.1007/978-3-658-47996-1
Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.