Skip to main content
Top

26. Künstliche Intelligenz im Militär: Ethische Implikationen und die Rolle der Inneren Führung

  • Open Access
  • 2026
  • OriginalPaper
  • Chapter
Published in:

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Künstliche Intelligenz (KI) im Militär hat tiefgreifende ethische und sicherheitspolitische Implikationen. KI ist nicht nur eine technologische Innovation, sondern verändert geopolitische Machtstrukturen, wirtschaftliche Prozesse und militärische Strategien. Insbesondere im Militär erfordert ihr Einsatz eine sorgfältige Abwägung zwischen Effizienzsteigerung und ethischer Verantwortung. Die „Innere Führung“ der Bundeswehr bietet hierbei eine bewährte ethische Grundlage, die sicherstellt, dass Entscheidungen – auch unter Nutzung von KI – stets mit menschenrechtlichen und demokratischen Werten vereinbar bleiben. Wir betonen die Notwendigkeit, klare Regeln für den Einsatz von KI zu definieren, um eine Entmenschlichung militärischer Entscheidungsprozesse zu verhindern. Die Bundeswehr muss sich nicht nur technologisch weiterentwickeln, sondern auch die ethische und rechtliche Reflexion intensivieren, um KI verantwortungsvoll in ihr Führungssystem zu integrieren. Dabei ist die menschliche Letztverantwortung essenziell – eine vollständige Delegation von Entscheidungen an KI-Systeme ist mit unserem Werteverständnis nicht vereinbar.

26.1 Ein erster Blick – digitale Disruption und herausfordernde Dimensionen

Seit der weltweiten Einführung von Chat GPT 3.5 des US-Unternehmens OpenAI am 30.11.2022 ist Artificial Intelligence (AI) bzw. Künstliche Intelligenz (KI) in die mediale Öffentlichkeit gerückt. Sie begeistert uns einerseits mit ihren intuitiven, stochastischen Papageien und lässt uns andererseits mit Bias, Halluzinationen und wertebefreiten Algorithmen erschaudern.
Künstliche Intelligenz gewinnt zunehmend an Präsenz und Brisanz in all unseren Lebensbereichen. Es entstehen immer mehr Internetseiten zu KI, mehr KI-Assistenz-Apps, mehr „How Tos“, mehr Leitfäden – immer mehr Chancen und immer mehr Risiken werden von immer mehr KI-Expertinnen und KI-Experten aufgezeigt. Und spätestens mit dem Presse- und Social-Media-Stakkato Ende Januar 2025 beim „Auftauchen“ des Chinesischen Large Language Models (LLM) R1 von DeepSeek wird uns allen die Tragweite dieser Technologieentwicklungen eingetrichtert. Die bis dahin scheinbar dominierenden westlichen LLM-Produkte erhalten fernöstliche Konkurrenz in R1-App-Hype-Geschwindigkeit. Euphorie und Warnungen überschlugen sich geradezu und ließen die Finanzmärkte kurzfristig erbeben.
Die soziokulturellen, wirtschaftlichen und geopolitischen Dimensionen von KI verdeutlichten uns die internationalen Wirtschafts-, Finanz- und Politikgrößen auf dem Weltwirtschaftsform (WEF) in Davos im Januar 2024 und 2025. Mit Themenschwerpunkten „Artificial Intelligence as a Driving Force for the Economy and Society“ im Jahr 2024 und „AI, Tech and the Intelligent Age at Davos“ im Jahr 2025 wird die transformative Bedeutung von KI als Schlüsseltechnologie benannt. Klaus Schwab, Gründer und Vorsitzender des WEF, beschreibt diese disruptive Energie sehr plastisch für uns: „Driven by rapid advancements in AI, quantum computing and blockchain, the Intelligent Age is transforming everything, everywhere, all at once.“ (WEF, 2024, 2025a, b; Schwab, 2024).
Die sozialen und ethischen Dimensionen zeigte UN-Generalsekretär António Guterres auf dem KI-Sicherheitsgipfel in London am 02.11.2023 auf und forderte, dass die Grundsätze für die Steuerung der Künstlichen Intelligenz auf der UN-Charta und der Allgemeinen Erklärung der Menschenrechte beruhen müssten. Er warnte, dass die Geschwindigkeit und die Reichweite der heutigen KI-Technologien beispiellos seien und dass die vielfältigen damit verbundenen Risiken neue Lösungen erforderten. Mit der Bletchley-Erklärung zur KI-Sicherheit unterstrichen die am KI-Sicherheitsgipfel 2023 teilnehmenden 28 Länder (inklusive USA, China und EU) ihren Willen, „ein gemeinsames Verständnis der Chancen und Risiken der KI“ mit dieser KI-Sicherheitserklärung festzulegen (Bletchley-Erklärung, 2023). Sie betonten, „dass es dringend notwendig ist, die potenziellen Risiken zu verstehen und gemeinsam zu bewältigen, und zwar durch eine neue gemeinsame globale Anstrengung, um sicherzustellen, dass KI auf sichere und verantwortungsvolle Weise zum Nutzen der Weltgemeinschaft entwickelt und eingesetzt wird.“ (KI-Sicherheitsgipfel, 2023).
Die regulatorischen und werteorientierten Dimensionen der KI insbesondere im militärischen Kontext sind für uns alle essenziell, um ihre Nutzung im Einklang mit ethischen Grundsätzen und internationalem Recht zu gestalten. Die UNESCO hebt in ihrer Empfehlung zur Ethik der KI die Notwendigkeit von Transparenz, Menschenrechtskonformität und Nichtdiskriminierung hervor (2021). Gleichzeitig setzt die UNO verstärkt auf Global Governance, um unregulierte Risiken zu minimieren (2023). Auf dem Weltwirtschaftsforum in Davos 2024 und 2025 betonte UN-Generalsekretär António Guterres erneut die Notwendigkeit, KI als Werkzeug für Sicherheit und Fortschritt einzusetzen, anstatt neue Bedrohungen zu schaffen – eine Herausforderung, die insbesondere für die militärische Nutzung klare Regeln und wertebasierte Leitlinien erfordert (WEF, 2024, 2025a, b). Er mahnt eindringlich: „… KI hat das Schlachtfeld auf besorgniserregende Weise betreten. Jüngste Konflikte sind zu Testfeldern für militärische KI-Anwendungen geworden. Die Ausweitung der KI auf Sicherheitssysteme wirft grundlegende Bedenken hinsichtlich der Menschenrechte, der Würde und der Rechtsstaatlichkeit auf …“, und weiter: „Lassen Sie uns eines klarstellen: Das Schicksal der Menschheit darf niemals der ‚Black Box‘ eines Algorithmus überlassen werden. Menschen müssen stets die Kontrolle über Entscheidungsprozesse behalten – geleitet von internationalem Recht, einschließlich internationalem humanitärem Recht und Menschenrechtsgesetzen sowie ethischen Prinzipien. Die Menschheit hat KI erschaffen. Die Menschheit muss sie auch lenken.“ (WEF, 2025a, b).
In all diesen Dimensionen des „Intelligent Age“, in dieser Omnipräsenz von KI bewegt sich die Bundeswehr (Bw), und das – aus unserer Perspektive – deutlich agiler, resilienter und wirkmächtiger als ihre Außenwirkung scheint. Wir müssen uns dennoch mit den rasanten technologischen Entwicklungen intensiv auseinandersetzen, bevor andere es tun, die nicht unser Werteverständnis teilen. Die Bundeswehr steht dabei vor der Herausforderung, diese Technologien nicht nur operativ, sondern auch ethisch verantwortlich einzusetzen.
Wir, Rainer Simon, Kommandeur des Ausbildungszentrums Cyber- und Informationsraum (AusbZ CIR) und Thomas Purper als Personaloffizier, Führungskräftecoach und Changemanager im AusbZ CIR, schreiben dieses Kapitel aus der Perspektive von Praktikern im Rahmen unseres Auftrages der militärischen Ausbildung mit einem Fokus auf Führung, Werte und Organisationsentwicklung. Unser Hintergrund liegt nicht in der IT oder Technik, sondern in der Führung und Entwicklung von Menschen sowie in der Vermittlung von Werten und Kompetenzen. Diese Perspektive erlaubt uns, KI nicht nur als technologische Herausforderung, sondern als eine Frage der Führungskultur, der ethischen Verantwortung und der notwendigen digitalen Transformation in der Bundeswehr zu betrachten. Unsere Aufgabe ist es, die Ausbildung der Soldatinnen und Soldaten so zu gestalten, dass digitale Kompetenz, ein digitales Mindset und ethisches Führungsverhalten als zentrale Bausteine für den Einsatz neuer Technologien – einschließlich KI – in der Bundeswehr verankert werden.
Ausgehend von der historischen Entwicklung der Bundeswehr, der „Inneren Führung“ (IF) als Fundament unserer Führungskultur, der Gründung der Teilstreitkraft Cyber- und Informationsraum (TSK CIR) und der aktuellen Neustrukturierung des Ausbildungszentrums CIR (AusbZ CIR) wollen wir aufzeigen, warum gerade diese besonderen Rahmenbedingungen eine gute Ausgangslage für den reflektierten und verantwortungsbewussten Umgang mit KI im militärischen Kontext bieten.

26.2 Grundbegriffe und Orientierung – die Basis für ein gemeinsames Verständnis

26.2.1 Frühe Sichtweisen auf Künstliche Intelligenz

Werner Voß, Professor für Statistik an der Universität Bochum und Autor des Buches „Einführung in die Künstliche Intelligenz“, definiert 1985 „Künstliche Intelligenz“ wie folgt: Künstliche Intelligenz Forschung versteht sich als diejenige Disziplin, die versucht, „Computer Aufgaben vollbringen zu lassen, die, wenn sie der Mensch vollführte, Intelligenz verlangen würden.“ Im Weiteren beschreibt er verschiedene Aufgaben, die von Computern zu bearbeiten sind, beispielsweise Suchsysteme, Erkennen, Spiele, aber auch Entscheidungen treffen. Zu Letzterem stellt Voß eine „kühne These“ zu ethischen Implikationen des Einsatzes von Künstlicher Intelligenz auf: „Es geht beispielsweise das Gerücht, dass die Entscheidung darüber, ob während des Korea-Krieges Anfang der 1950er-Jahre die USA Atombomben gegen das angreifende und gerade im Jahr 1949 kommunistisch gewordene China einsetzen sollte oder nicht, durch einen Computer herbeigeführt worden sei. Ob Gerücht oder nicht sei dahingestellt – denkbar wäre sehr wohl, dass ein Computer eine derartige Entscheidung fällt, vermutlich sogar rationaler kalkuliert, als dies ein ehrgeiziger General oder Oberbefehlshaber könnte.“
Hier möchten wir für Sie zentrale Fragestellungen für den noch folgenden Diskurs herauskristallisieren: das Spannungsfeld zwischen der Verantwortung des Offiziers für existenzielle Entscheidungen und der rationalen Berechnung. Im Mittelpunkt steht die Frage, inwieweit Entscheidungen dieser Tragweite auf rein logischen Algorithmen basieren können, oder ob sie vielmehr einer ethischen Reflexion und menschlichen Verantwortung bedürfen.

26.2.2 Digitalisierung im 21. Jahrhundert

Die Digitalisierung verändert die Welt in zunehmendem Maße. Einen wesentlichen Einfluss – täglich feststellbar in vielen Anwendungsbereichen – hat dabei der Einsatz von zahlreichen, für nahezu alle frei verfügbaren Produkte auf der Basis von Künstlicher Intelligenz. Die Entwicklung und der Einsatz von Services sind dabei kein Selbstzweck oder bloße Beschaffung und Nutzung von Technologie. Um die Chancen der Digitalisierung und Künstlichen Intelligenz im gesamten Fähigkeitsspektrum der Bundeswehr zu nutzen und die Risiken minimieren zu können, bedarf es neben eines Paradigmenwechsels (den Einsatz betreffend) auch einer Weiterentwicklung (Aus-, Fort- und Weiterbildung) des Personals in den Streitkräften. Digitalisierung ist nicht nur eine isolierte Aufgabe einer einzelnen Abteilung im Bundesverteidigungsministerium (BMVg) oder des Rüstungsbereiches, sondern muss auf allen Ebenen und in allen Bereichen und von jedem durchgängig mitgedacht und gelebt werden. Digitalisierung ist damit mehr als nur eine Frage der Technologie – es geht um die Änderung der Denk- und Handlungsweise, um das „Digitale Selbstverständnis der Bundeswehr“ (BMVg, 2022).

26.2.3 Künstliche Intelligenz

Obwohl sicherlich mehrfach in diesem Buch diskutiert und dargestellt, soll als Ausgangspunkt für den Beitrag folgende Definition des EU Artificial Intelligence Act von 2024 zugrunde gelegt werden:
In diesem gesetzlichen Rahmen ist ein KI-System als „ein maschinengestütztes System [zu verstehen], das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie betrieben werden kann, das nach der Einführung Anpassungsfähigkeit zeigen kann und das für explizite oder implizite Ziele aus den Eingaben, die es erhält, ableitet, wie es Ergebnisse wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle Umgebungen beeinflussen können.“

26.2.4 Ethik

Ethik ist ein Teilgebiet der Philosophie, genauer gesagt der praktischen Philosophie. Sie beschäftigt sich mit dem menschlichen Handeln. Die Frage danach, was wir tun sollen, gilt seit Kant als die zentrale Grundfrage der Ethik, der es um das gute Handeln geht. Der Ethik geht es nicht darum zu zeigen, dass bestimmte Formen menschlicher Praxis besonders häufig oder wahrscheinlich sind, sondern darum, möglichst überzeugend dafür zu argumentieren, dass sie als ethisch geboten begriffen werden müssen. Die Verbindlichkeit ethischer Forderungen ist aber völlig unabhängig davon, ob die Menschen ihr tatsächlich nachkommen (Torkler, 2023).
Ein zentrales Element dieser Betrachtungen ist der uneingeschränkte Einsatz für eine Werteordnung, die auf Menschenrechten, Demokratie, Freiheit und der Würde des Menschen basiert. Dazu gehört die Übernahme von Verantwortung – sowohl für die Gesellschaft als Ganzes als auch für das Individuum – sowie die aktive Förderung von Solidarität. Letztlich stehen dabei immer ethische Prinzipien im Mittelpunkt.
Der Auftrag der Soldatinnen und Soldaten besteht darin, dem Frieden zu dienen, wobei Gewalt nur dann angewendet wird, wenn sie die Herstellung gerechter Zustände bewirkt. Entscheidend ist dabei, dass dies stets im Rahmen der rechtlichen Vorgaben und mit legitimen Mitteln geschieht und nicht durch die Missachtung oder den Bruch des Rechts.

26.2.5 Das ethische Wesen der Verantwortung

Verantwortung geht über die bloße Pflichterfüllung hinaus und kann nicht automatisiert oder auf bloße Routinehandlungen reduziert werden. Sie ist vielmehr eine innere Haltung, die sich in bewusstem Handeln ausdrückt. Verantwortung ist immer an ein individuelles Subjekt gebunden – sie kann nicht anonym oder ohne persönliche Bindung existieren.
In diesem Sinne erfordert Verantwortung eine bewusste, reflektierte Entscheidung, die nicht nur geltend gemacht wird, sondern sich in einem echten Bezug zum Gegenstand der Verantwortung zeigt. Sie setzt ein tiefes Verständnis der eigenen Rolle und der ethischen Konsequenzen des eigenen Handelns voraus.
Jean-Paul Sartre schrieb, Verantwortung bedeute, „der unbestrittene Urheber eines Ereignisses oder einer Sache zu sein.“ Verantwortliches Sprechen und Handeln sind demnach ethische Akte des Individuums – eine letztlich eigene, nicht übertragbare Reaktion auf das Geschehen. Sie zeigt sich als bewusstes Antwortverhalten, das qualitativ nicht nur reagiert, sondern sich aktiv in Beziehung zur jeweiligen Situation, einem Auftrag oder einem Einsatz setzt. Damit geht Verantwortung über das bloße Befolgen von Anweisungen hinaus und steht in Verbindung mit einer sie überspannenden „höheren“ Ethik, deren transzendentale Bezüge dem menschlichen Gewissen zugänglich sind (Torkler, 2023).

26.2.6 Menschenwürde

Die Würde des Menschen ist unantastbar. Sie zu achten und zu schützen ist Verpflichtung aller staatlichen Gewalt (GG Artikel 1(1)).
Eine unendliche Würde, die unveräußerlich in ihrem Wesen begründet ist, kommt jeder menschlichen Person zu, unabhängig von allen Umständen und davon, in welchem Zustand oder in welcher Situation diese sich auch immer befinden mag. Dieser Grundsatz, der auch von der Vernunft allein voll erkannt werden kann, ist die Grundlage für den Vorrang der menschlichen Person und den Schutz ihrer Rechte (Papst Franziskus, 2024a, b).

26.3 Führungskultur der Bundeswehr – Herausforderungen und Chancen der Inneren Führung

Die Gründung der Bundeswehr im Jahr 1955 erfolgte unter der besonderen Berücksichtigung der Erfahrungen aus dem Zweiten Weltkrieg und der nationalsozialistischen Diktatur. Ziel war es, eine Streitkraft zu schaffen, die fest in den Prinzipien der Demokratie und der Achtung der Menschenwürde verwurzelt ist. Die Innere Führung, die als konstitutives Element der Bundeswehr eingeführt wurde, hat die Aufgabe, militärische Disziplin mit den Rechten und Pflichten des Staatsbürgers zu vereinen. Das Konzept des „Staatsbürgers in Uniform“ verdeutlicht, dass Soldaten nicht nur Befehle ausführen, sondern auch moralische Verantwortung tragen. Diese Verantwortung ist insbesondere im Kontext moderner Konflikte und asymmetrischer Bedrohungen relevant, in denen die Grenzen zwischen militärischen, zivilen und technologischen Bereichen zunehmend verschwimmen.
Die Innere Führung basiert auf drei wesentlichen Prinzipien: Menschenwürde, Eigenverantwortung und Rechtsstaatlichkeit. Sie betont, dass militärische Entscheidungen nicht nur operativen Zwängen folgen dürfen, sondern stets in einem ethischen Rahmen getroffen werden müssen. Die Innere Führung verlangt nicht nur professionell ausgebildeten Soldatinnen und Soldaten (Beherrschung des „militärischen Handwerks“), sondern auch die Überzeugung aus Einsicht von den Werten und Normen unseres Grundgesetzes und der freiheitlich-demokratischen Grundordnung (Persönlichkeitsbildung) – einen Soldaten (m, w, d), der die Rechte und Freiheiten, die er selbst erfährt, im Ernstfall verteidigen kann und will. Diese Überzeugung wurde bereits zur Gründung der Bundeswehr von Generalleutnant Wolf Graf von Baudissin formuliert: „Der Soldat wird erst dann ein Höchstmaß an abwehrbereiter Kriegstüchtigkeit entwickeln […], wenn er sich aus staatsbürgerlicher Einsicht unterordnet und der Gemeinschaft gegenüber verantwortlich fühlt. Dies lässt sich nur dadurch erreichen, dass der Einzelne während des Dienstes das erlebt, was er notfalls verteidigen muss.“ (Dörfler-Dierken, 2005).
Im Kern verlangt die Innere Führung von Soldatinnen und Soldaten Eigenverantwortung, demokratische Verankerung und Verantwortung gegenüber den Menschen und der Gesellschaft. Diese Form der Bildung und Haltung ist eine entscheidende Grundlage für die Positionierung gegenüber technischen und gesellschaftlichen Entwicklungen. Sie ist damit auch zentral für den kritischen Diskurs zu den Grundlagen, der Entwicklung und letztlich der Nutzung von Künstlicher Intelligenz in militärischen Einsätzen. Entscheidungen müssen kritisch reflektiert werden: Die Bundeswehr ist Teil der Gesellschaft, und sie ist ihrem Wertekanon verpflichtet. Daraus ergibt sich die wahrzunehmende Verantwortung, dass technologische Innovationen und Entwicklungen – insbesondere der Einsatz von KI in Militäreinsätzen – nicht gegen diese Grundwerte verwendet werden dürfen. Dies ist besonders relevant, wenn neue Technologien eingeführt werden, deren Einsatzmöglichkeiten sowohl strategische Vorteile als auch ethische Risiken bergen (Dörfler-Dierken, 2024).
Die Innere Führung und eine breit angelegte Persönlichkeitsbildung (politisch, rechtlich, ethisch, historisch, interkulturell) tragen dazu bei, dass Soldatinnen und Soldaten die notwendige Widerstandskraft besitzen, um Belastungen und Entbehrungen nicht nur zu ertragen, sondern auch zu überwinden, und um im Gefecht nicht nur zu bestehen, sondern auch zu gewinnen. Das erfordert wiederum Charakterstärke und mentale Kraft, um entsprechende kritische Positionen einbringen und auch durchsetzen zu können. Dies spiegelt sich in Innovationsvorhaben, bei technischen Entwicklungen und transformativen Prozessen durch Agilität, einen nachhaltigen Innovationswillen und ein digitales Mindset wider.
Die Würde des Menschen ist ein zentrales Element des Grundgesetzes. Die Verteidigung der Würde jedes Menschen, erfordert aus unserer Sicht eine klare Positionierung des Soldaten bzw. der Soldatin im Diskurs zum Einsatz von Künstlicher Intelligenz. Die Achtung der Würde des Menschen, der Person, erfordert es auch, Grenzen zu ziehen, um den Menschen nicht durch ein System, eine Künstliche Intelligenz, eine Software zu einem Objekt herabzusetzen zu lassen, ihn zu entwürdigen oder ihn zu entmenschlichen.
Im Konzept der Inneren Führung ist der Dreiklang Führen – Entscheiden – Verantworten angelegt. Entscheidungen treffen und Verantwortung tragen sind Elemente, die in einem Krieg oder Einsatz durch Soldatinnen und Soldaten mit und ohne Einsatz von KI erfolgen müssen; Verantwortung übernehmen und tragen, das kann und wird nicht von einer Software oder KI abgenommen werden. Hier bleibt der Mensch in der Verantwortung. Innere Führung bedeutet, auch in unangenehmen Situationen verantwortlich zu handeln, und dies bedeutet eben auch einen Einsatz von tödlicher Gewalt gegenüber Menschen. Die Entscheidung und der Einsatz darf daher gerade mit Blick auf die Werte des Grundgesetzes (Menschenwürde) nicht durch eine KI „übernommen“ werden; dies entmenschlicht den Gegner und führt zu Verantwortungslosigkeit.

26.4 Wertekompass und Künstliche Intelligenz – wie sich Tradition und Zukunft vereinen

Verteidigungsfähigkeit ist abhängig von Informations-, Führungs- und Wirkungsüberlegenheit – auch durch Nutzung von KI. KI-Anwendungen sollten eingesetzt werden, um Demokratie und Freiheit zu verteidigen, ohne dieses Wertegefüge auszuhöhlen oder zu vernichten. Innere Führung ist dabei der Wertekompass für die Bundeswehr und die besondere Anforderung des Soldatenberufs: Wofür dienen Soldaten? Wofür setzen sie ihr Leben ein, und wofür sind sie bereit zu töten? Das Leitbild des Staatsbürgers in Uniform bezieht sich auf ein freies, mündiges, verantwortungsbewusstes Individuum, einen rational denkenden, reflektierenden Menschen, dessen Existenz sich im Spannungsverhältnis von Individualität und Gemeinsinn bewegt, einen bestens ausgebildeten, einsatzfähigen und einsatzbereiten Soldaten, der die Menschenwürde berücksichtigt. Damit formuliert sie auch das berufsethische Ideal eines verantwortlichen Soldaten bzw. einer Soldatin, die ihr Handeln an den menschenrechtfundierten Normen des Rechtsstaats der Bundesrepublik Deutschland orientiert (Bock, 2022). Maßgeblich für die Befehlsausführung ist ein gewissensgeleiteter, pflichtbewusster und verantwortungsvoller Gehorsam. Leitinstanz ist das individuelle Gewissen, das nicht durch KI ersetzt werden darf.
Baudissin formulierte es 1954 folgendermaßen: „Je tödlicher und weitreichender die Waffenwirkung wird, umso notwendiger wird es, dass Menschen hinter den Waffen stehen, die wissen, was sie tun. Ohne die Bindung an die sittlichen Bereiche droht der Soldat zum bloßen Funktionär der Gewalt und Manager zu werden.“ KI muss unter den Prämissen der Inneren Führung einer kritischen Prüfung unterzogen werden, d. h. unter Wahrung unseres Wertesystems (Menschenwürde, Freiheit, Frieden, Gerechtigkeit, Gleichheit, Solidarität und Demokratie). Erforderlich ist ein problembewusster, kritischer und verantwortungsvoller Umgang mit KI: Prüfelemente zum Wohl unseres demokratischen Gemeinwesens und sicherheitspolitischen Herausforderungen müssen formuliert werden (ethische, rechtliche, politische und gesellschaftliche Fragestellungen).
Der Kern der Inneren Führung bleibt bei aller technologischer Entwicklung der vergangenen Jahrzehnte dennoch unverändert und stellt die Richtlinie für die Anwendung von KI aus der Perspektive der Inneren Führung dar (und kann nicht oft genug für uns alle in Erinnerung gerufen werden): Grundgesetz Art. 1 (1): „Die Würde des Menschen ist unantastbar. Sie zu achten und zu schützen ist Verpflichtung aller staatlicher Gewalt.“ Das Primat der Politik bedeutet, dass Soldatinnen und Soldaten in Folge demokratisch legitimierter Herrschaft beauftragt werden zu handeln. KI darf nicht dazu führen, den Staatsbürger in Uniform zu entmündigen. Stattdessen ist sicherzustellen, dass Reflexion, Gewissen und Entscheidungsverantwortung in menschlicher Hand bleiben. KI muss – analog zur Handhabung von Nuklearwaffen und ihrer Zerstörungskraft – verantwortungsvoll gehandhabt werden. Und dies erfordert, dass wir uns mit allen Facetten von KI auseinandersetzen müssen, bevor andere es tun, die nicht unser Werteverständnis teilen.
In diesem Verständnis und im Diskurs um und bei der Entwicklung von KI ist daher immer die Frage zu stellen: Werden Soldaten von verantwortungsvoll bewusst handelnden Subjekten tendenziell zum bloßen Objekt ohne ethische Reflexion beziehungsweise Reflexionsmöglichkeit degradiert? Dies schärft im Übrigen auch das Bewusstsein im Sinne der Inneren Führung. Bereits Baudissins warnte eindringlich vor den sittlichen und geistigen Folgen von Technokratentum im Militär unter den seinerzeitigen und präsent gebliebenen Herausforderungen atomarer militärischer Mittel. KI bewegt sich immer auf dem schmalen Grat der Freiheit. Das heißt im Verständnis der Prinzipien der Inneren Führung: Wir müssen uns mit KI auseinandersetzen und unser Werteverständnis einbringen. Wir dürfen keine Wunderdinge von KI erwarten. Im Mittelpunkt bleibt der Soldat als Mensch mit Letztverantwortung. KI enthebt den Soldaten nicht von der Prüfung des Gewissens in Dilemmasituationen und entbindet ihn nicht von der Verpflichtung sowie dem Mut zur Entscheidung. KI entbindet ihn nicht von der Werteorientierung; vielmehr setzt sie diese zwingend voraus.
Resümee
Die Innere Führung ist sowohl unser Gegenwarts- als auch Zukunftsmodell für eine ethisch fundierte Digitalisierung der Streitkräfte. In einer Zeit, in der KI, Automatisierung und digitale Technologien die Kriegsführung revolutionieren, ist die Innere Führung aktueller und notwendiger denn je. Sie verhindert eine ethikfreie Technologisierung des Militärs und stellt für uns sicher, dass auch in einer hochdigitalisierten Bundeswehr der Mensch als verantwortungsbewusster Entscheidungsträger im Mittelpunkt bleibt.

26.5 Persönlichkeitsbildung in den Streitkräften – Entwicklung von Charakter und Führungskraft

Die Persönlichkeitsbildung umfasst die Handlungsfelder politische, rechtliche, historische, ethische und interkulturelle Bildung und hat in der Bundeswehr einen hohen Stellenwert. Bereits mit der Konzeption der Inneren Führung bei der Aufstellung der Streitkräfte wurde der Lebenskundliche Unterricht (LKU) als zentrales Element etabliert. Die Vordenker der Inneren Führung stellten sich eine „persönlichkeitsbildende Maßnahme vor, deren thematischer Schwerpunkt letztlich ‚Sittlichkeit‘ war und deren wirkliche Herausforderung für den Unterrichtenden im unmittelbaren Zusammenspiel von ‚Ethik‘ und ‚Moral‘ in der Truppe bestand“ (Torkler, 2023). Ziel des LKU ist es, Soldatinnen und Soldaten in ethischen, gesellschaftlichen und persönlichen Fragestellungen Orientierung zu geben. Themen wie ethische Dilemmata, Menschenwürde, Verantwortung, Toleranz und der Umgang mit Konflikten oder auch Entscheiden in Krisensituationen stehen dabei im Mittelpunkt. Der LKU entstand aus der Einsicht, dass Soldaten eine über das rein Fachliche hinausgehende ethische Bildung und Kompetenz benötigen. Die in diesem Rahmen vermittelte Werteorientierung dient nicht nur der Ausbildung der individuellen Persönlichkeit, sondern trägt auch zur Stabilität des militärischen Dienstes bei. Dies zeigt sich insbesondere in der Art und Weise, wie in nahezu unvermeidlichen ethischen Konfliktsituationen in Kriegen gehandelt wird: Gehorsam im Konflikt mit dem eigenen Gewissen; Abwägen der Konsequenzen des militärischen Handelns, Berücksichtigung des humanitären Völkerrechts und letztlich das Entscheiden und Verantworten. Die Auseinandersetzung mit der Rechtfertigung und Begrenzung von Gewalt ist dabei ein Kernaspekt. Soldatinnen und Soldaten müssen ethische Prinzipien, wie die Wahrung der Menschenrechte und die Achtung der Würde jedes Menschen, mit der militärischen Realität vereinen, was zu tiefgreifenden inneren Konflikten führen kann. Der Lebenskundliche Unterricht im Rahmen der Persönlichkeitsbildung hilft, genau dieses moralische Urteilsvermögen und die Charakterbildung zu entwickeln.
Zur Persönlichkeitsbildung gehört, wie oben bereits angesprochen, auch die rechtliche Bildung. Humanitäres Völkerrecht, Kriegsvölkerrecht, der Umgang mit Kombattanten und Nichtkombattanten, die Verhältnismäßigkeit beim Einsatz der Mittel, die Unterstützung von schutzbedürftigen Zivilisten und unschuldigen Dritten stellen dabei zentrale Aspekte in der Ausbildung dar.
Krieg ist von der Völkergemeinschaft offiziell geächtet; es gilt das Gewaltverbot. Für den Fall interstaatlicher Konflikte hat allein der UN-Sicherheitsrat das Machtmonopol inne. Allein die Verteidigung gegen einen bewaffneten Angriff rechtfertigt den Einsatz militärischer Gewalt: Angriffskriege sind nie erlaubt, Verteidigungskriege schon, sofern sie den Forderungen des Völkerrechts entsprechen und nur mit erlaubten Mitteln geführt werden. Artikel 36 des Zusatzprotokolls vom 08.07.1977 zu den Genfer Abkommen vom 12.08.1949 über den Schutz der Opfer internationaler bewaffneter Konflikte antizipiert bereits die Entstehung neuer Waffensysteme, weil es Staaten auffordert zu prüfen, ob eine neue Waffe oder Methode nicht a priori als verboten gelten muss. Das setzt voraus, dass die Staaten die Menschenrechte achten. Sie sollen, so der Leitgedanke, schon bei der Entstehung neuer Waffensysteme zu erkennen geben, dass ihnen die Würde der Menschen anderer Nationalität genauso wichtig ist wie die Würde der eigenen Staatsbürger (Hofstetter et al., 2019).
Mit Blick auf Transformation und Digitalisierung festigt die Persönlichkeitsbildung ihren Stellenwert in den Streitkräften. Neue Technologien erfordern ein starkes ethisches Urteilsvermögen und eine wertebasierte Führungskultur. Das Konzept und das Leben der Inneren Führung stellt sicher, dass Soldatinnen und Soldaten trotz fortschreitender Automatisierung und technischer Unterstützung ihre Letztverantwortung behalten und weiterhin reflektierte Entscheidungen im Einklang mit demokratischen Werten treffen.
Resümee
Die Persönlichkeitsbildung in den Streitkräften ist nicht nur eine individuelle Charakterbildung, sondern ein zentraler Bestandteil der militärischen Transformation und Digitalisierung. Sie stellt sicher, dass ethische Reflexion, Verantwortung und rechtliche Rahmenbedingungen auch in einer zunehmend technologisierten und automatisierten Gefechtsführung erhalten bleiben.

26.6 Vergleich mit internationalen Streitkräften – was wir lernen, antizipieren und adaptieren können

Eine kurze Gegenüberstellung der Führungsmodelle einiger ausgewählter internationaler Streitkräfte zeigt, dass die Bundeswehr mit ihrer Inneren Führung ein einzigartiges Konzept verfolgt, das ethische und demokratische Prinzipien in den Vordergrund stellt. Im Vergleich dazu betonen andere Nationen unterschiedliche Aspekte in ihren militärischen Führungsansätzen.
USA: Mission Command
Das US-Militär setzt auf das Konzept des Mission Command, das die Eigenverantwortung und Initiative auf operativer Ebene fördert. Dieses Modell legt Wert auf dezentrale Entscheidungsfindung und Flexibilität, um auf dynamische Gefechtssituationen agil reagieren zu können. Allerdings ist es weniger explizit in ethischen und demokratischen Prinzipien verankert, wie sie in der Inneren Führung der Bundeswehr betont werden. Die Fokussierung liegt hier stärker auf operativer Effizienz und Zielerreichung (ADP 6-0 Mission Command, 2023).
China: Autoritärer Ansatz und Technologisierung
Die Volksbefreiungsarmee Chinas ist durch strikte Hierarchien und eine zentralisierte Führungsstruktur geprägt. In den letzten Jahren hat China erhebliche Fortschritte in der Integration von Technologie, insbesondere Künstlicher Intelligenz (KI), in militärische Anwendungen gemacht. Diese Technologisierung zielt darauf ab, die Effizienz und Schlagkraft der Streitkräfte zu maximieren. Ethische Überlegungen sind gemeinwohlorientiert, und die Integration politischer Kontrolle der kommunistischen Partei unterscheidet sie von der Inneren Führung (Allen, 2019).
Israel: High-Tech-Integration und ethische Debatten
Israel ist bekannt für seine fortschrittliche High-Tech-Integration im militärischen Bereich. Die enge Verbindung zwischen Militär und der florierenden Start-up-Kultur des Landes fördert technologische Flexibilität und Innovation. Gleichzeitig gibt es intensive Debatten über ethische Fragen, insbesondere bei der Nutzung autonomer Waffensysteme. Die israelischen Streitkräfte stehen vor der Herausforderung, technologische Vorteile mit ethischen Überlegungen in Einklang zu bringen, um sowohl operative Effizienz als auch moralische Integrität sicherzustellen (Singer, 2009).
Frankreich: Menschliche Kontrolle über KI-Systeme
Frankreich betont ausdrücklich die Notwendigkeit, KI-Systeme unter menschlicher Kontrolle (human control) zu halten. Das französische Verteidigungsministerium hat Leitlinien für den ethischen Einsatz von KI im Militär entwickelt, die sicherstellen sollen, dass Entscheidungen über Leben und Tod stets von Menschen getroffen werden. Dieser Ansatz zielt darauf ab, die ethischen Implikationen des Einsatzes von KI im Militär zu adressieren und das Vertrauen in die Streitkräfte zu stärken (Goussac, 2020).
Zusammenarbeit in der NATO und bei Multi-Domain-Operationen
Die unterschiedlichen Führungsansätze und Wertevorstellungen der NATO-Mitgliedstaaten stellen eine Herausforderung für die Zusammenarbeit in gemeinsamen Operationen dar. Multi-Domain-Operationen, die die Integration von Land-, See-, Luft-, Cyber- und Weltraumoperationen erfordern, setzen ein hohes Maß sowohl an technischer und prozeduraler Interoperabilität als auch an gegenseitigem interkulturellen Verständnis voraus. Die NATO verfolgt ein gemeinsames Konsens-Führungsmodell, das Eigenverantwortung betont und demokratische Werte integriert (Ewers-Peters, 2024). Die Innere Führung der Bundeswehr ist dabei in ihrer Klarheit und Tiefe einzigartig und als richtungsweisendes Modell bei ethischen Fragestellungen herausgestellt.
Aktuelle geopolitische Lage und veränderte verteidigungspolitische Rahmenbedingungen
Die geopolitische Lage hat sich in den letzten Jahren erheblich verändert. Der anhaltende Konflikt zwischen der Ukraine und Russland hat die Sicherheitsarchitektur Europas erschüttert und die NATO vor neue Herausforderungen gestellt. Die unterschiedlichen Führungsansätze innerhalb der Allianz beeinflussen die Reaktionen auf solche Krisen. Zudem hat der Wechsel in der US-Präsidentschaft im Januar 2025 zu einer Neubewertung der transatlantischen Beziehungen geführt. Die US-Politik unter Präsident Donald Trump betont dabei eine stärkere Fokussierung auf nationale Interessen und fordert von den europäischen NATO-Partnern eine größere Eigenverantwortung in Verteidigungsfragen (Trump, 2025). Dies hat Auswirkungen auf gemeinsame Verteidigungsstrategien und die Lastenverteilung innerhalb des Bündnisses.
Resümee
Dieser kurze Vergleich der Führungsansätze einiger ausgewählter Streitkräfte zeigt die Vielfalt der Modelle und deren unterschiedliche Schwerpunkte. Während die Bundeswehr mit der Inneren Führung einen ethisch-demokratischen Ansatz verfolgt, legen andere Nationen Wert auf operative Effizienz, technologische Überlegenheit oder hierarchische Strukturen. Für die Zusammenarbeit in Bündnissen wie der NATO ist es entscheidend, diese Unterschiede zu erkennen, zu respektieren und Mechanismen zu entwickeln, die eine effektive Kooperation und ein gemeinsames Werteverständnis ermöglichen. Geopolitische Entwicklungen und Veränderungen von verteidigungspolitischen Rahmenbedingungen erfordern eine kontinuierliche, wertebasierte Reflexion und Weiterentwicklung der Führungsparadigmen, um den komplexen Herausforderungen der zunehmend technologisierten Kriegsführung und ihren ethischen Fragestellungen gerecht zu werden.
Das Führungskonzept Innere Führung der Bundeswehr bietet uns dabei einen stabilen ethischen Rahmen, der auch in Zeiten von geopolitischem Wandel, bei der Digitalisierung und beim Einsatz von Künstlicher Intelligenz relevant bleibt.

26.7 Die Entwicklung des Cyber- und Informationsraums (CIR) der Bundeswehr – eine neue Dimension der Verteidigung

Die fortschreitende Digitalisierung und die zunehmende Bedeutung des Cyber- und Informationsraums (CIR) haben die Bundeswehr veranlasst, ihre Strukturen und Fähigkeiten in diesem Bereich bedarfsgerecht anzupassen. Wir beleuchten die Entwicklung des Cyber- und Informationsraums der Bundeswehr von 2014 bis 2025 unter Berücksichtigung der Chancen und Herausforderungen im Kontext aktueller geopolitischer und technologischer Entwicklungen.
Vorbereitende Schritte und erste Planungen (2014–2016)
Bereits 2014 erkannte die Bundeswehr die Notwendigkeit, ihre digitalen Fähigkeiten insbesondere im Teilbereich der Cybersicherheit zu stärken. Im November 2015 wurde ein Aufbaustab im Bundesministerium der Verteidigung (BMVg) eingerichtet, der die Aufgabe hatte, die Organisation von Verantwortung, Kompetenzen und Aufgaben im Bereich Cyber- und Informationsraum auszuplanen. Der Abschlussbericht dieses Aufbaustabs wurde im April 2016 vorgelegt und empfahl unter anderem die Einrichtung einer Abteilung Cyber/IT (CIT) im BMVg zum 01.10.2016 sowie die Aufstellung eines militärischen Organisationsbereichs für den Cyber- und Informationsraum mit einem Inspekteur an der Spitze zum 01.04.2017 (BMVg, 2016).
Offizielle Gründung des CIR und erste Strukturierungsmaßnahmen (2017)
Im April 2017 wurde der CIR offiziell als eigenständiger militärischer Organisationsbereich der Bundeswehr aufgestellt. Das Kommando Cyber- und Informationsraum (KdoCIR) in Bonn übernahm die Führung und Verantwortung für diesen Bereich; Generalleutnant Ludwig Leinhos wurde zum ersten Inspekteur des CIR ernannt.
Im Sommer 2017 wurden dem KdoCIR das Kommando Strategische Aufklärung, das Zentrum für Geoinformationswesen der Bundeswehr und das Kommando Informationstechnik der Bundeswehr unterstellt. Diese Integration bündelte die Fähigkeiten in den Bereichen Aufklärung, Geoinformation und Informationstechnik unter einem Dach und stärkte somit die Effizienz und Schlagkraft des CIR (Bundeswehr, 2025).
Weiterentwicklung und Anpassung an neue Bedrohungslagen (2018–2020)
In den folgenden Jahren passte sich der CIR kontinuierlich an die sich verändernden Bedrohungslagen an. Die zunehmende Anzahl von Cyberangriffen und die Bedeutung von Informationskriegen erforderten eine stetige Weiterentwicklung der Fähigkeiten (Busch & Düe, 2017).
Einführung von „CIR 2.0“ und strukturelle Neuausrichtung (2021–2024)
Im Oktober 2022 wurde im Rahmen der Neuausrichtung „CIR 2.0“ das Zentrum Digitalisierung der Bundeswehr und Fähigkeitsentwicklung Cyber- und Informationsraum (ZDigBw) neu aufgestellt. Im März 2023 folgten im Zuge verschiedener Organisationsmaßnahmen die Aufstellung des Kommandos Aufklärung und Wirkung (KdoAufkl/Wirk) und des Kommandos Informationstechnik-Services der Bundeswehr (KdoIT-SBw). Diese Maßnahmen zielten darauf ab, die Digitalisierung und die Entwicklung von Fähigkeiten im CIR voranzutreiben.
Am 01.04.2024 wurde das Ausbildungszentrum Cyber- und Informationsraum (AusbZ CIR) aufgestellt, indem die Schule Informationstechnik der Bundeswehr in Pöcking und die Schule für Strategische Aufklärung der Bundeswehr in Flensburg zusammengeführt wurden. An sieben Standorten in Deutschland mit aktuell rund 1200 engagierten Mitarbeitenden dient es als Kompetenzzentrum für Lehre und Ausbildung. Es bildet das Fachpersonal der Bundeswehr für Informationstechnik, Elektronische Kampfführung und Militärisches Nachrichtenwesen aus. Das AusbZ CIR ist zuständig für Lehre und Ausbildung der gesamten Teilstreitkraft CIR sowie aller weiteren Teilstreitkräfte und Organisationsbereiche der Bundeswehr. Dazu bietet es jährlich mehr als 210 verschiedene Lehrgangsmodule an. In seiner hochmodernen, digitalen Lernlandschaft qualifiziert das Zentrum jedes Jahr mehr als 11.500 Absolvierende aus Deutschland und unseren Partnerstaaten.
Aufstieg zur eigenständigen Teilstreitkraft und aktuelle Entwicklungen (seit 2024)
Seit dem 01.05.2024 ist der Cyber- und Informationsraum nun neben Heer, Luftwaffe und Marine die vierte Teilstreitkraft der Bundeswehr. Diese strategische Positionierung und Aufwertung unterstreicht die wachsende Bedeutung des CIR für die nationale Sicherheit und die Verteidigungsfähigkeit Deutschlands.
Rund 15.000 Menschen arbeiten in dieser Teilstreitkraft. Sie füllen die eigenständige Dimension CIR mit Leben, gestalten sie ganzheitlich und entwickeln die Fähigkeiten darin weiter. Kennzeichnend sind eine innovative Arbeitsumgebung und der Wille, unkonventionelle Wege zu gehen. Dies ist eine entscheidende Voraussetzung dafür, sich in dem dynamischen und schnell weiterentwickelnden Umfeld der Digitalisierung behaupten zu können.
Chancen und Herausforderungen im aktuellen Kontext
Aktuell steht die TSK CIR vor der Herausforderung, sich an die dynamischen geopolitischen und technologischen Entwicklungen anzupassen. Der russische Angriffskrieg hat über das zunehmend technologisierte Kriegsgeschehen in der Ukraine hinaus die Bedeutung von Cyberfähigkeiten und Informationskriegsführung nochmals verdeutlicht. Zudem erfordert die rasante Entwicklung der Künstlichen Intelligenz eine kontinuierliche Anpassung der Strategien und Fähigkeiten, um digitale Exzellenz und Resilienz zu gewährleisten.
Die Etablierung der TSK CIR bietet der Bundeswehr die Chance, ihre Cyberfähigkeiten zu bündeln und weiterzuentwickeln, um den aktuellen und zukünftigen Bedrohungen im CIR wirksam begegnen zu können. Die Integration verschiedener Disziplinen und die Schaffung spezialisierter Ausbildungseinrichtungen, wie des Ausbildungszentrums CIR, fördern die digitale Kompetenz und Innovationskraft der Bundeswehr.
Gleichzeitig stellen die dynamischen geopolitischen Entwicklungen, die aktuellen hybriden Kriegsszenarien und die rasante technologische Entwicklung im Bereich der KI erhebliche Herausforderungen dar. Die Bundeswehr muss ihre Strukturen und Prozesse kontinuierlich anpassen, um agil und resilient auf neue Bedrohungen reagieren zu können.
Resümee
Als konsequente Reaktion auf die technologischen und geopolitischen Herausforderungen unserer Zeit führt die Bundeswehr alle spezifischen Aufgaben, Fähigkeiten und Innovationspotentiale des intelligenten Zeitalters in der jüngsten Teilstreitkraft, der TSK CIR, zusammen. Diese Entwicklung ist nicht nur eine organisatorische Anpassung, sondern eine tiefgreifende systemische Veränderung – ein klares Signal für die zentrale Bedeutung der digitalen Dimension im militärischen Denken und Handeln. Es ist ein wesentlicher Schritt, um die Chancen der Digitalisierung für die Bundeswehr effizienter zu nutzen und die Herausforderungen strategisch gestärkt und operativ gebündelt zu meistern.
Das AusbZ CIR nimmt dabei eine Schlüsselrolle ein: Es gewährleistet durch eine moderne Lehr- und Lerninfrastruktur, vielfältige Ausbildungsformate sowie vernetzte und zentrierte Zusammenarbeit eine zukunftsfähige Entwicklung im gesamten Cyber- und Informationsraum. Die kontinuierliche Verbesserung digitaler Kompetenzen sowie die Förderung eines reflektierenden, digitalen Mindsets optimieren die militärischen Fähigkeiten im „Intelligent Age“. Die Philosophie der „Führung aus einer Hand“ mit flachen Hierarchien, effiziente Prozesse und ein innovatives Lehrgangsmanagement führen zu einer nachhaltig wirkungsvollen Ausbildung, reduzieren messbar die Bürokratie und stärken damit die Handlungs- und Wirkfähigkeit der Streitkräfte im digitalen Raum.

26.8 Künstliche Intelligenz im Verteidigungsministerium – konzeptionelle Grundlagen und Einsatzmöglichkeiten

Die durch und für die Bundeswehr entwickelten konzeptionellen Grundlagen beschreiben Prinzipien, Potenziale und Voraussetzungen für die Nutzung von KI (BMVg, 2022). Deren Einsatz „muss stets zielgerichtet wirkungs- und verantwortungsvoll sowie rechtskonform erfolgen.“ Der Fokus im folgenden Abschnitt liegt auf den militärischen Aufgaben der Streitkräfte, da gerade hier die Beziehung zu ethischen Aspekten besonders herausgestellt werden muss. Der Einsatz von KI im Rahmen der administrativen Aufgaben der Bundeswehr wird hier nicht beleuchtet. Das zentrale, von der Bundeswehr durch den Einsatz von KI verfolgte Ziel ist, eine auf dem modernen Gefechtsfeld, in allen Dimensionen und in der Wirkkette der Domänen Führung, Aufklärung, Wirkung und Unterstützung (FAWU) hohe Durchsetzungs-, Durchhalte- und Verteidigungsfähigkeit zu erlangen. Dabei stehen durch KI unterstützte Anwendungen zur Erlangung der Informations- und Führungsüberlegenheit ebenso im Fokus wie Services, die das Potential haben, die Effizienz zu steigern, insbesondere die Geschwindigkeit und Präzision von Prozessen, um schließlich Wirkungsüberlegenheit zu erzielen.
Die Konzeption unterstreicht die politischen und rechtlichen Rahmenbedingungen, vorgegeben durch das (humanitäre) Völkerrecht, die KI-Strategie der Bundesregierung („ethics by design“), die NATO Principles of Responsible Use of Artificial Intelligence in Defence, welche die Prinzipien Rechtmäßigkeit, Verantwortung und Rechenschaftspflicht beim Einsatz, bei der Erklärbarkeit und Rückverfolgbarkeit der Ergebnisse, Zuverlässigkeit, Kontrolle und Vermeidung von Verzerrungen beinhaltet, und ist damit eindeutig und klar in ihrer Aussage. Insbesondere lehnt die Bundeswehr-Konzeption letale autonome Waffensysteme (LAWS) ab und entwickelt Plattformen nicht mit dem Ziel vollständiger Autonomie, sondern stets mit einem Menschen an sinnvoller Stelle in der Entscheidungskette. Dem militärischen Grundsatz der unteilbaren Verantwortung kommt dabei sehr hohe Bedeutung zu, und gleichzeitig erwachsen daraus Qualitätskriterien für die KI.
Es kommt für die Bundeswehr darauf an, gerade auch im Gefecht mit einem mindestens gleichwertigen Gegner in allen Dimensionen (Land, Luft, Weltraum, See sowie Cyber- und Informationsraum) durchsetzungs- und verteidigungsfähig zu sein. Siegfähigkeit der Streitkräfte ist ein Muss – „zweiter Sieger“ zu sein ist keine Option. Hierzu sind weitere Fähigkeitsentwicklungen erforderlich, gerade auch unter Berücksichtigung der Verpflichtungen zur Bereitstellung deutscher Kräftebeiträge und der Wahrnehmung von Führungsverantwortung und -aufgaben im Bündnis.
Dabei geht die Konzeption u. a. von folgenden Annahmen aus:
  • Die Frage ist nicht mehr, ob KI eingesetzt wird, sondern wie schnell und wofür sie eingesetzt werden sollte.
  • KI erweitert das Handlungspotential des Menschen, soll diesen unterstützen und nicht eigenständig wirken.
  • KI muss in ihren Ergebnissen für den Menschen verständlich und durch den Menschen kontrollierbar sein.
Weiterhin wird hier – bereits vor Jahren – festgestellt: KI wird auch durch Verbündete und Partnernationen in den Einsätzen oder bei zivilen Auftragnehmern zur Nutzung kommen. Darüber hinaus werden potenzielle Gegner KI nutzen, und zwar ohne die eigenen rechtlichen und ethischen Beschränkungen, um ihrerseits eine Wirkungsüberlegenheit zu erreichen. Auswertungen des Krieges in der Ukraine, insbesondere mit Blick auf den Einsatz von Drohnen, den elektronischen Kampf und die Erstellung von Echtzeitlagebildern, unterstreichen gerade die letzte Annahme eindrücklich. Die KI übernimmt im „Gefecht der Drohnen“ bereits die Zielauffassung und den Endanflug in das Ziel auch und gerade bei Verbindungsabbruch zur Basisstation. Die Entwicklung geht rasant weiter, hin zur Steuerung und Koordination des Einsatzes einer Vielzahl von Drohnen (Schwarm) unter einem einheitlichen Kommando.
Es gilt für die Bundeswehr, diese Entwicklungen und die daraus erwachsenden Notwendigkeiten nicht nur theoretisch, sondern besonders in der Umsetzung in den Streitkräften intensiv zu verfolgen. In seiner Untersuchung zu Lehren aus der ukrainischen Offensive in 2023 und zur Zukunft der Drohnenkriegsführung folgert Andreas Rapp:
„Eine Armee, die Drohneneinsatz und den Kampf im elektromagnetischen Spektrum (inklusive der Steuerung und Koordinierung durch KI) nicht berücksichtigt, wird zukünftig nicht mehr durchsetzungs- und überlebensfähig sein.“ Er fordert dazu: „Es ist dabei der gleiche rechtliche und ethische Maßstab an den Einsatz von Drohnen als Wirkmittel anzulegen wie an den Einsatz anderer weitreichender Wirkmittel in Form von Artillerie, Lenk- oder Marschflugkörpern.“ (2024).
Auf strategischer Ebene ist die Sicherstellung der Einsatzbereitschaft und Zukunftsfähigkeit der Bundeswehr, gestützt auf eine nachhaltig effektive und effiziente Aufgabenwahrnehmung, das zentrale und übergreifende Ziel im Hinblick auf die Nutzung von KI. Dies steht nicht allein, sondern wird von weiteren zu verfolgenden Zielen untermauert:
  • Entwicklung neuer und Ergänzung vorhandener Fähigkeiten: Wir setzen KI zur Steigerung des Handlungs- und Leistungsvermögens ein, um schnellere und qualitativ bessere Entscheidungen auf Grundlage von Informationsüberlegenheit zu erreichen und diese in zukunftsfähige Führungs- und Wirkungsüberlegenheit umzusetzen.
  • Erhöhung der Reaktionsgeschwindigkeit bei gleichzeitiger Risikominimierung: Wir fördern mittels KI die Unterstützung und Entlastung unseres zivilen und militärischen Personals bei der Herleitung, Festlegung und Umsetzung von Entscheidungen (beispielsweise durch Nutzung unbemannter Systeme und Verbesserung des Mensch-Maschine-Zusammenwirkens in komplexen, sicherheitskritischen und datenintensiven Anwendungen).
  • Verbesserung der Früherkennung: Wir setzen KI ein, um relevante Veränderungen der Sicherheits- und Bedrohungslage frühzeitig erkennen bzw. prognostizieren zu können. Hierin liegt ein wichtiger Beitrag, um rechtzeitig warnen und geeignete Handlungsempfehlungen treffen zu können.
Für die Umsetzung der Ziele in Projekte und Fähigkeiten wurden daher u. a. folgende Anwendungsgebiete identifiziert (Auszug):
  • Vorausschauende Bedrohungsanalysen und (Krisen-)Früherkennung
  • Erkennen von Desinformation im Netz
  • Automatisierte Lagebilderstellung und -bewertung
  • Simulation
  • Wargaming- und Entscheidungsunterstützungssysteme in der Operationsführung
  • Analyse und Abwehr von Cyberbedrohungen
  • Automatisierte Abwehr- und Schutzsysteme
  • Medizinische Diagnostik sowie Unterstützung präklinischer und klinischer Prozesse
  • Unterstützung in Aus-, Weiter-, und Fortbildung und Einsatzvorbereitung
  • Vorbeugende Wartung
  • Adaptive Logistik
  • Unterstützung im Lifecycle Management
Die o. a. Annahmen und Kriterien werden im Projekt Future Combat Air System erstmalig für die Bundeswehr in einer besonderen Form berücksichtigt und in einer Arbeitsgruppe Technikverantwortung umgesetzt. Generalleutnant a. D. Ansgar Rieks und Professor Dr. Wolfgang Koch beschreiben dies wie folgt:
Ziel ist es, Ethik, Recht und politisches Wollen technisch zu operationalisieren. Dazu gehört u. a. Folgendes:
  • Das Systemdesign muss das Lagebild so zuverlässig wie möglich ermitteln.
  • Welche der Handlungsoptionen rechtskonform sind, ist automatisch abzuprüfen. Treffen militärisch Handelnde nicht rechtskonforme Entscheidungen, sind sie darauf hinzuweisen.
  • Bereitzustellen sind automatisiert ablaufende Funktionen, welche die Folgen jeweiliger Entscheidungsalternativen berechnen und darstellen.
  • Die Entscheidungen zur Nutzung eines solchen System im Einsatz und zur technischen Auslegung müssen von Menschen – auch jenseits des Operateurs im Cockpit – getroffen und verantwortet werden.
  • Dilemmata bleiben bestehen. Konsequentialistische und ethische Abwägungen sind bereits durch Parametrisierung des Systems bei der Konzipierung und bei der Einsatzvorbereitung vorzusehen.
Die Autoren folgern aus den bisherigen Entwicklungen und Diskussionen:
„Im Grunde muss Technik der operativen Idee folgen, sie möglich und erfolgreich machen. Ethik begleitet dann die Technikentwicklung in diesem militärischen Umfeld und lässt sich konkret einbeziehen, und umgekehrt gilt: ethischer werden durch Technologie, und siegfähig werden durch operative Nutzung dieser Technologie in einem systemischen Ansatz – selbst gegen einen völlig unethisch handelnden Gegner“. (Rieks & Koch, 2024).

26.9 Ethik, Politik und Recht – die Herausforderungen einer digitalen Streitkraft

KI-Anwendungen entwickeln sich mit rasanter Geschwindigkeit. Sie für das oben beschriebene militärische und nichtmilitärische Umfeld innerhalb des gesetzlichen Rahmens, auf Grundlage unserer ethischen Wertvorstellungen und entsprechend den Grundsätzen der Inneren Führung sowie immer auch unter Berücksichtigung der gesamtgesellschaftlichen Diskussion zum Thema KI in der Breite zur Anwendung zu bringen, muss Handlungsmaxime für die Einführung von KI-Systemanteilen im Geschäftsbereich BMVg sein.
Die politische und gesellschaftliche Frage nach dem ethischen Einsatz von Systemen in allen Domänen ist nicht neu und wurde schon in der Vergangenheit beantwortet: Eine verpflichtende Einstufung im Rahmen einer Waffenprüfung ist völkerrechtlich und gesetzlich gefordert. Sie ist unabhängig vom Einsatz einer bestimmten Technik, wie z. B. KI, und beurteilt generell die Fähigkeiten jedes Gerätes, das in der Bundeswehr zum Einsatz kommen darf. Damit werden Zuverlässigkeit, Sicherheit und Robustheit für alle Systeme garantiert, inklusive solcher mit KI-Anteilen.
Dennoch ist es erforderlich, bei allen nationalen Überlegungen und Festlegungen zu bedenken, dass andere Nationen – insbesondere diejenigen, die der westlichen Werteordnung und der Beachtung der Menschenrechte geringeren Wert zumessen – weniger Rücksicht auf diese Bedenken legen, wenn es um die Entwicklung und den Einsatz von Künstlicher Intelligenz in Waffensystemen geht. Dies ist gerade im völkerrechtswidrigen Krieg Russlands in der Ukraine feststellbar. Die Politik muss also, wie das auch bereits Papst Franziskus eingeklagt hat, völkerrechtlich verbindliche Vorgaben entwickeln, vereinbaren und einhalten.
In allen Szenarien, in denen kritische, mit hohem Risiko behaftete Entscheidungen zu treffen sind, ist der menschlichen Verantwortung Rechnung zu tragen. Eine konkrete Ausprägung, an welcher Stelle ein Mensch in die Entscheidung eingreift, ist von System zu System neu zu bewerten und wird auch beim gleichen System, aber in unterschiedlichen Lagen, situationsangepasst gehandhabt werden müssen. In jedem Fall werden die eingesetzten KI-Systeme mit dem Ziel entwickelt, Entscheidungsvorschläge nachvollziehbar zu machen (explainable AI), um dem Menschen die nötige Voraussetzung zu liefern, an sinnvoller Stelle die bestmögliche Entscheidung treffen zu können (meaningful human control).
Resümee
Der Einsatz von KI im Militär erfordert klare ethische Richtlinien!
  • Human-in-the-Loop-Prinzip: Entscheidungen über Leben und Tod dürfen niemals vollständig an Maschinen delegiert werden (Bryson et al., 2017).
  • Transparenz und Nachvollziehbarkeit: KI-Systeme müssen überprüfbar und nachvollziehbar sein.
  • Ächtung autonomer Waffensysteme: Systeme, die ohne menschliches Eingreifen töten können, widersprechen den Grundsätzen der Inneren Führung (Crootof, 2014).

26.10 Verantwortung und KI im Informationsraum – Wie wir ethische Maßstäbe setzen

Wertenormen sind für uns und unsere Partner beim Einsatz von KI von zentraler Bedeutung. Die Schaffung von Normen, technische Lösungen zur Vertrauenswürdigkeit von Informationen, die Einhaltung von Richtlinien und die Identifizierung von Informationsquellen sind Schlüsselaspekte, um sicherzustellen, dass KI-Anwendungen verantwortungsvoll und glaubwürdig eingesetzt werden können. Gerade im militärischen Kontext bestehen hierbei noch enorme Herausforderungen. Der Einsatz von KI erfordert generell klare Normen und Standards. Diese sollen eine Bewertung der bereits erwähnten Kriterien wie Datenschutz, Fairness, Transparenz und Verantwortlichkeit ermöglichen. Dies gilt nicht nur für Waffensysteme, sondern ganz besonders auch im Informationsumfeld. Hier wird gerade in der täglichen Praxis der Kampf um die Narrative in den aktuellen Konflikten deutlich. KI-generierte Videos oder Bilder, Desinformationskampagnen, Fake News, Deep Fakes … – Einflussnahme findet in vielfältiger Form statt, was eigene Kräfte zum Aufbau von Fähigkeiten zur Erkennung und dem Einleiten von Gegenmaßnahmen fordert.
Umso mehr ist es im Zusammenhang mit dem Einsatz von KI beim Militär notwendig, diese Technologie einer sorgfältigen Prüfung zu unterziehen und, wo erforderlich und möglich, sie zu regulieren. Sowohl die Entwicklung eigener Lösungen als auch extern bereitgestellte Anwendungen erfordern verbindliche, aber auch praxistaugliche Standards, vorzugsweise international abgestimmt und anerkannt.
1.
Menschliche Kontrolle: Bei autonomen Waffensystemen stellt sich die Frage nach der menschlichen Kontrolle. Wie viel Autonomie sollte solchen Systemen gewährt werden, und wer trägt die Verantwortung für ihre Handlungen?
 
2.
Verhältnismäßigkeit in bewaffneten Konflikten: Die Nutzung von KI in militärischen Operationen erfordert eine sorgfältige Abwägung der Verhältnismäßigkeit von Angriffen und die Einhaltung ethischer Grundsätze im Krieg, wie die Unterscheidung zwischen Zivilisten und Kombattanten.
 
3.
Transparenz und Verantwortlichkeit: Es ist wichtig sicherzustellen, dass KI-Algorithmen und -Entscheidungsprozesse transparent sind und diejenigen, die solche Systeme einsetzen, für ihre Handlungen verantwortlich gemacht werden können.
 
4.
Datenschutz: Die Sammlung und Analyse großer Mengen von Daten im militärischen Kontext werfen Fragen zum Schutz der Privatsphäre auf, insbesondere wenn es um Zivilisten geht.
 
5.
Internationales Recht: Es ist zu gewährleisten, dass der Einsatz von KI im Militär im Einklang mit dem Völkerrecht und internationalen Abkommen steht.
 

26.11 Kirche und Militär – eine Reflexion über Werte und Spiritualität

Ausgehend davon, dass Krieg weder notwendig noch begrüßenswert, aber auch nicht auszuschließen ist, behauptet die Lehre vom gerechten Krieg die grundsätzliche Beschaffenheit und damit sowohl die Vermeidbarkeit (prioritär) wie die Führbarkeit des Krieges (auf der Basis von Kriterien). Da die Existenz von Kriegen nicht negiert werden kann, stellt bereits Thomas von Aquin dar, dass diese unter bestimmte Bedingungen gerechtfertigt sein können. Dazu müssten jedoch Bedingungen erfüllt sein;
1.
Kriegführung bedarf einer legitimierten Autorität.
 
2.
Kriegführung bedarf einer guten Absicht.
 
3.
Ziel der Kriegführung muss die Wiederherstellung des Friedens sein (Gutes soll gefördert, Übles verhütet werden).
 
Letzteres bedeutet auch: Der Krieg muss unvermeidlich und alle anderen Mittel müssen ausgeschöpft sein (ultima ratio).
Kriegführung bedarf der angemessenen Weise und der quantitativen Verhältnismäßigkeit im Hinblick auf die angewendete Gewalt. So müssen Unschuldige und Zivilisten weitestgehend geschont und Kriegsgefangene menschlich behandelt werden (Torkler, 2023).
Das Leitbild vom gerechten Frieden fordert für eine rechterhaltende Anwendung von Gewalt die Berücksichtigung der Kriterien (existenter) Erlaubnisgrund, Autorisierung, richtige Absicht, äußerstes Mittel, Verhältnismäßigkeit der Folgen, Verhältnismäßigkeit der Mittel und Unterscheidungsprinzip (unbeteiligte Personen und Einrichtungen).
Papst Franziskus betont die Chancen und Gefahren, die durch den Nutzen von Künstlicher Intelligenz für die Menschheit ausgehen, und fordert, über gemeinsame Ethikrichtlinien die Würde des Menschen neu in den Mittelpunkt zu stellen, die Programme Künstlicher Intelligenz am Wohle der Menschen auszurichten und „eine ethische Moderation von Algorithmen und Programmen der künstlichen Intelligenz“, die „Algor-Ethik“, zu institutionalisieren (2020, 2024a, b).
Zu autonomen Waffensystemen unterstreicht er seine ethischen Bedenken: „Autonome Waffensysteme werden niemals moralisch verantwortliche Subjekte sein können. Die ausschließlich menschliche Fähigkeit zum moralischen Urteil und zur ethischen Entscheidungsfindung ist mehr als ein komplexer Satz von Algorithmen, und diese Fähigkeit kann nicht auf die Programmierung einer Maschine reduziert werden, die, wie ‚intelligent‘ sie auch sein mag, doch immer eine Maschine bleibt. Aus diesem Grund ist es unerlässlich, eine sachgemäße, maßgebliche und kohärente menschliche Kontrolle der Waffensysteme zu garantieren.“
Er fordert die Völkergemeinschaft auf, gemeinsam daran zu arbeiten, „einen verbindlichen internationalen Vertrag zu schließen, der die Entwicklung und den Einsatz von Künstlicher Intelligenz in ihren vielfältigen Formen regelt, dies sowohl zur Verhinderung schädlicher Praktiken, aber auch zur Ermutigung zu einer guten Praxis, indem neue und kreative Ansätze angeregt sowie persönliche und gemeinschaftliche Initiativen erleichtert werden.“

26.12 Fazit und Ausblick – Perspektiven für eine moderne und zukunftsfähige Bundeswehr

Die Einführung von KI im Militär stellt die Bundeswehr vor große Herausforderungen, bietet aber auch Chancen, internationale Standards für den ethischen Einsatz neuer Technologien zu setzen. Die Prinzipien der Inneren Führung sind ein wertvolles Instrument, um sicherzustellen, dass technologische Innovationen nicht nur die operative Effizienz steigern, sondern auch den moralischen und gesellschaftlichen Anforderungen gerecht werden.
Es gilt, noch einmal den (Mit-)Begründer der Inneren Führung, Generalleutnant Wolf von Baudissin, zu Wort kommen zu lassen:
„Je tödlicher und weitreichender die Waffenwirkung wird, umso notwendiger wird es, dass Menschen hinter den Waffen stehen, die wissen, was sie tun. Ohne die Bindung an die sittlichen Bereiche droht der Soldat zum bloßen Funktionär der Gewalt und Manager zu werden.“
Ohne zu diesem Zeitpunkt bereits an den Einsatz von Künstlicher Intelligenz in Waffensystemen gedacht zu haben, zeigt diese Position doch deutlich den Wert des Menschen bei Entscheidungs- und Verantwortungsprozessen auf der Grundlage eines eindeutigen, durch das Grundgesetz vorgegebenen Wertefundaments auf. KI entbindet Soldaten nicht von der Werteorientierung, sondern setzt eben eine solche zwingend voraus. Sie bewahrt den Soldaten nicht vor Dilemmasituationen und entbindet ihn nicht von der Verpflichtung, sondern erfordert weiterhin Mut zur Entscheidung. Die Bundeswehr stellt in ihren konzeptionellen Grundlagen die Entscheidung Deutschlands dar, den Einsatz letaler autonomer Waffensysteme abzulehnen, die dem Menschen die Entscheidung über den Einsatz tödlicher Gewalt gänzlich entziehen. Potenzielle Gegner oder Verbündete könnten sich zum Einsatz autonomer Waffensysteme jedoch anders positionieren, was Fragen bezüglich der Abwehr derartiger Systeme bzw. der Interoperabilität mit diesen auch in Deutschland aufwerfen wird. Deshalb ist es erforderlich, sich weiterhin mit allen Aspekten dieser Technologie zu befassen, um die notwendige Bewertungskompetenz zu möglichen Auswirkungen auf die Bundeswehr zu behalten, insbesondere in Bezug auf Abwehr- oder Schutzmaßnahmen. Ziel ist es, KI-basierte Technologie vermehrt zu nutzen, um den Dreiklang aus Informations-, Führungs- und Wirkungsüberlegenheit auch im fortschreitenden 21. Jahrhundert sicherzustellen. KI trägt damit zur Zukunftsfähigkeit der Bundeswehr bei. Durch ihren Einsatz können militärische Operationen voraussichtlich besser, schneller und beweglicher geführt sowie Soldatinnen und Soldaten besser geschützt und unterstützt werden. KI, wie andere Zukunftstechnologien auch, lässt sich nicht auf Technik begrenzen, sondern muss auf allen Ebenen und in allen Bereichen mitgedacht werden. Wesentlich dabei sind qualifizierte Soldatinnen und Soldaten sowie zivile Mitarbeitende, die sich bewusst und engagiert neuen Herausforderungen im Umgang mit KI stellen und ggf. auch bereit sind, kurzfristige Einschränkungen im eigenen Bereich hinzunehmen, um ein übergeordnetes Entwicklungsziel zu erreichen.
Für die Nutzung von KI in Waffensystemen muss daher gelten: Der Einsatz von KI in heutigen und zukünftigen Waffensystemen wird sich für die Bundeswehr klar in den Grenzen des Völkerrechts, insbesondere des humanitären Völkerrechts, bewegen. Dem dient insbesondere auch eine bei der Entwicklung, Beschaffung und Einführung von neuen KI-gestützten Waffen, Mitteln oder Methoden der Kriegsführung durchzuführende Prüfung, die bereits im Vorfeld des Einsatzes klarstellen soll, ob und inwieweit diese Systeme im Einklang mit dem Völkerrecht in bewaffneten Konflikten eingesetzt werden können.
Die Innere Führung war und ist in den nun fast 75 Jahren der Existenz der Bundeswehr der Wertekompass für die Soldatinnen und Soldaten und für die besonderen Anforderung des Soldatenberufs. Ihr Kern bleibt unverändert „Die Würde des Menschen ist unantastbar.“ Das Leitbild des Staatsbürgers in Uniform bezieht sich auf ein verantwortungsbewusstes Individuum und einen einsatzbereiten Soldaten (m, w, d), der die Menschenwürde berücksichtigt. Maßgeblich ist ein gewissensgeleiteter, pflichtbewusster und verantwortungsvoller Gehorsam; leitend ist das individuelle Gewissen, das durch keine technologische Entwicklung, auch nicht durch eine Künstliche Intelligenz, ersetzt werden darf. Dies erfordert täglich einen problembewussten, kritischen und immer verantwortungsvollen Umgang mit dieser Technologie. KI darf nicht dazu führen, den Staatsbürger in Uniform zu entmündigen oder aus der Entscheidung und Verantwortung für sein Handeln zu nehmen. Gerade Letzteres – die Entscheidungsverantwortung – muss in menschlicher Hand bleiben. Tägliche wachsende Fähigkeiten der KI sind mehr als geeignet, um in den militärischen und administrativen Prozessen umfangreiche analytische Aufgaben übernehmen und unterstützen zu können, aber die KI stellt aus unserer Sicht gerade in verantwortungsrelevanten ethischen Aspekten keinen Ersatz dar. Die menschliche Entscheidung und Verantwortungsübernahme bleibt unerlässlich.
Wir schließen mit einem bezeichnenden Zitat von Generalmajor Robert H. Latiff, US Army (Hofstetter et al., 2019):
„Being killed by a machine is the ultimate human indignity“
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Download
Title
Künstliche Intelligenz im Militär: Ethische Implikationen und die Rolle der Inneren Führung
Authors
Rainer Simon
Thomas Purper
Copyright Year
2026
Publisher
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-71567-3_26
go back to reference Allen, G. (2019). Understanding China’s AI Strategy. 6 (2). Center for a New American Security. De Gryter.
go back to reference Bendiek, A., & Metzger, T. (2021). Cyberwarfare und militärische Digitalisierung in Deutschland. Springer VS.
go back to reference Bletchley-Erklärung. (2023). Summit on Responsible Artificial Intelligence in the Military Domain (REAIM). https://www.gov.uk/government/news/countries-agree-to-safe-and-responsible-development-of-frontier-ai-in-landmark-bletchley-declaration. Zugegriffen am 01.02.2025.
go back to reference BMVg. (2016). Abschlussbericht Aufbaustab Cyber- und Informationsraum (S. 7). https://www.bmvg.de/de/aktuelles/auftrag-cyber-verteidigung-11414. Zugegriffen am 30.11.2024.
go back to reference BMVg. (2022). SLL-007 Datenstrategie GB BMVg. 214. Bundesministerium der Verteidigung CIT I 5.
go back to reference Bryson, J. J., et al. (2017). Of, for, and by the People: The Legal Lacuna of Synthetic Persons. Artificial Intelligence and Law, 25(4), 285 ff. https://link.springer.com/article/10.1007/s10506-017-9214-9. Zugegriffen am 23.03.2025.
go back to reference Bundeswehr. (2025). Wer gehört zum CIR – Kommandos und Dienststellen. https://www.bundeswehr.de/de/organisation/cyber-und-informationsraum/kommando-und-organisation-cir. Zugegriffen am 01.03.2025.
go back to reference Busch, C., & Düe, N. (2017). Arbeitspapier Sicherheitspolitik (S. 4 f). https://www.baks.bund.de/sites/baks010/files/arbeitspapier_sicherheitspolitik_2017_24.pdf. Zugegriffen am 04.02.2025.
go back to reference Crootof, R. (2014). The killer robots are here: Legal and ethical implications. Cardozo Law Review, 37(5), 1849 ff. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2534567. Zugegriffen am 23.03.2025.
go back to reference Dörfler-Dierken, A. (2005). Ethische Fundamente der Inneren Führung. Bild der Zeit 54, 24.1/1. Sozialwissenschaftliches Institut der Bundeswehr.
go back to reference Dörfler-Dierken, A. (Hrsg.). (2024). Innere Führung – konkret: Familie? Ehre? Konflikt? Menschenrechte? Sicherheit? Respekt? (S. 31). Zentrum für Militärgeschichte und Sozialwissenschaften der Bundeswehr.
go back to reference Ewers-Peters, N. M. (2024). Wie die NATO Entscheidungen trifft. Bundeszentrale für politische Bildung. https://www.bpb.de/themen/internationale-organisationen/nato/557836/wie-die-nato-entscheidungen-trifft/. Zugegriffen am 04.02.2025.
go back to reference Goussac, N. (2020). Keeping the Human in the Loop: Artificial Intelligence and International Humanitarian Law (S. 474). International Review of the Red Cross. https://international-review.icrc.org/sites/default/files/reviews-pdf/2021-03/ai-and-machine-learning-in-armed-conflict-a-human-centred-approach-913.pdf. Zugegriffen am 23.03.2025.
go back to reference Hofstetter, Y., et al. (2019, Juli 19). Autonome Waffen: Das fünfte Gebot im KI-Krieg (S. 7 ff). Spektrum. spektrum.de/das-fuenfte-gebot-im-ki-krieg/1655406. Zugegriffen am 23.03.2025.
go back to reference KI-Sicherheitsgipfel. (2023). Recommendation on the Ethics of Artificial Intelligence. United Nations Educational, Scientific and Cultural Organization. https://www.gov.uk/government/topical-events/ai-safety-summit-2023. Zugegriffen am 23.03.2025.
go back to reference Papst Franziskus. (2020). Vollversammlung der päpstlichen Akademie – Algor-Ethik. https://www.vatican.va/content/francesco/de/speeches/2020/february/documents/papa-francesco_20200228_accademia-perlavita.html. Zugegriffen am 23.03.2025.
go back to reference Papst Franziskus. (2024a). 57. Weltfriedenstag. 01.01.2024, Künstliche Intelligenz und Frieden. https://www.vatican.va/content/francesco/de/messages/peace/documents/20231208-messaggio-57giornatamondiale-pace2024.html. Zugegriffen am 23.03.2025.
go back to reference Rapp, A. (2024, September 30). Die Saluschnyj-Doktrin. Lehren aus der ukrainischen Offensive 2023 und die Zukunft der Drohnenkriegsführung. #GIDSstatement 9/2024. https://gids-hamburg.de/die-saluschnyj-doktrin-lehren-aus-der-ukrainischen-offensive-2023-und-die-zukunft-der-drohnenkriegsfuhrung/. Zugegriffen am 04.02.2025.
go back to reference Rieks, A., & Koch, W. (2024). Unbemannte Luftfahrzeuge – die Ethikdimension. Behörden-Spiegel. Moderne Streitkräfte, 1/2024. Pro-Press Verlagsgesellschaft mbH.
go back to reference Singer, P. W. (2009). Wired for war: The Robotics revolution and conflict in the 21st century. Penguin Press.
go back to reference Torkler, R. (Hrsg.). (2023). Handbuch Ethische Bildung im Lebenskundlichen Unterricht der Bundeswehr (S. 15 ff). Herder.
go back to reference Trump, D. (2025, Februar 04). dpa-infocom, dpa:250203-930-364500/1Trump will US-Hilfen für Ukraine an Rohstoffe knüpfen. https://www.zdf.de/nachrichten/politik/ausland/ukraine-usa-hilfen-rohstoffe-trump-100.html. Zugegriffen am 23.03.2025.
go back to reference UN. (2023). Secretary-General’s AI for Good Global Summit Address. United Nations. https://www.un.org/en/desa/un-calls-urgent-action-enable-opportunities-mitigate-risks-information-and-digital. Zugegriffen am 23.03.2025.
go back to reference UNESCO. (2021). Recommendations-ethics. https://www.unesco.org/en/artificial-intelligence/recommendation-ethics. Zugegriffen am 23.03.2025.
go back to reference Voß, W. (1985). Einführung in die Künstliche Intelligenz. Universität Bochum.
go back to reference WEF. (2024). Special Address by António Guterres at the World Economic Forum 2024. https://www.weforum.org/stories/2024/01/davos-2024-special-address-by-antonio-guterres-secretary-general-of-the-united-nations/. Zugegriffen am 02.02.2025.

Premium Partner

    Image Credits
    Neuer Inhalt/© ITandMEDIA, Nagarro GmbH/© Nagarro GmbH, AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, USU GmbH/© USU GmbH, Ferrari electronic AG/© Ferrari electronic AG