Künstliche Intelligenz und Krieg
Welche Risiken entstehen, wenn der Mensch die Kontrolle verliert?
- 2026
- Buch
- Verfasst von
- Karl Hans Bläsius
- Verlag
- Springer Berlin Heidelberg
Über dieses Buch
Entwicklungen der Künstlichen Intelligenz werden erhebliche Auswirkungen auf unsere Gesellschaften haben und die Menschen in allen Lebensbereichen betreffen. Die aktuellen Entwicklungen könnten auch zu einer uns überlegenen Superintelligenz mit unkalkulierbaren Folgen führen. Automatische Entscheidungen auf Basis von KI werden immer wichtiger, wobei aber grundlegende Informationen für Entscheidungen häufig vage, unsicher und unvollständig sind. Deshalb werden auch KI-Systeme nicht sicher entscheiden können, egal wie gut diese mal sein werden. Im militärischen Kontext und bei Massenvernichtungswaffen, wie z.B. Atomwaffen, kann dies gravierende Folgen haben. Zur Reduzierung solcher Risiken ist eine Zusammenarbeit und ein gewisses Maß an Vertrauen zwischen allen großen Nationen erforderlich. Diese Zusammenhänge werden in dem Buch dargestellt.
Inhaltsverzeichnis
-
Frontmatter
-
1. Künstliche Intelligenz – Einführung
Karl Hans BläsiusZusammenfassungDieses Kapitel enthält zunächst einige einführende Anmerkungen zu den Anfängen, Zielen und einigen Erfolgen der Künstlichen Intelligenz (KI). Zu den Zielen gehört auch das automatische Lösen von Problemen, wozu zum Beispiel logische Schlussfolgerungen verwendet werden können. In der Anfangszeit gab es einige Prognosen über erwartete Leistungen, die aber deutlich später oder bisher noch gar nicht eingetreten sind. Dies liegt auch an der hohen Komplexität vieler Problemstellungen und dabei auftretenden riesigen Suchräumen. Während die symbolische KI in den ersten Jahrzehnten der KI-Forschung dominierte, wurden die Erfolge in den letzten Jahren vor allem auf der Basis von künstlichen neuronalen Netzen erreicht. Auch das Verstehen natürlicher Sprache war schon zu Beginn ein wichtiges Thema in der KI, galt aber als besonders schwierig. Auch hier dominierten zunächst symbolische Ansätze, wie zum Beispiel in dem von IBM durchgeführten Projekt LILOG. Sehr überraschend war Ende 2022 mit der Veröffentlichung von ChatGPT, welche Qualität in der sprachlichen Kommunikation inzwischen erreicht werden kann. In diesem Kapitel soll vermittelt werden, wie schwer es sein kann, komplexe Probleme automatisch zu lösen. Auch wenn es inzwischen viele überzeugende Erfolge der KI gibt, können immer wieder erhebliche Hürden auftreten. Auf einige ausgewählte Ansätze der KI wird in diesem Kapitel kurz eingegangen. -
2. Erkennungsaufgaben
Karl Hans BläsiusZusammenfassungIn diesem Kapitel werden einige Erkennungsaspekte behandelt. Erkennungsaufgaben bilden eine wesentliche Grundlage für automatische Entscheidungen. Ein gewisses Verständnis von Kriterien zur Erkennung von Objekten oder zur Erkennung und Beurteilung von bestimmten Situationen kann helfen, mögliche Erkennungsleistungen und damit verbundene Risiken besser einschätzen zu können. Erkennungsaufgaben werden hier nicht in militärischem Kontext, sondern allgemein behandelt. Genauere Vorgehensweisen bei Erkennungsaufgaben sind im militärischen Umfeld ohnehin weniger bekannt als bei zivilen Anwendungen. Erkennungsaufgaben müssen häufig in unsicherem Kontext gelöst werden, wobei es auch wichtig ist, die Aspekte Vagheit und Unsicherheit zu unterscheiden. Dieses Kapitel enthält auch einen Abschnitt über die Bestimmung persönlicher Eigenschaften aus Medieninhalten, wie Texten, Fotos und Tonaufnahmen. Dies sind besonders problematische KI-Anwendungen, die sogar im Rahmen einer kognitiven Kriegsführung militärisch genutzt werden könnten. -
3. Risiken durch generative KI
Karl Hans BläsiusZusammenfassungNur wenige Monate nach der Veröffentlichung von ChatGPT haben führende Wissenschaftler vor erheblichen Risiken solcher Systeme gewarnt. In diesem Kapitel wird auf einige Risiken durch Systeme der generativen KI hingewiesen. Wie viele andere KI-Anwendungen können auch Systeme der generativen KI viele nützliche Aufgaben erledigen, wozu auch Aufgaben gehören, zu deren Bewältigung ein gewisses Maß an Kreativität erforderlich ist. Solche KI-Systeme können textliche Abhandlungen bereits in sehr guter Qualität verfassen und auch Medien mit Bild und Ton nach Vorgaben erzeugen. Diesen Vorzügen stehen auch erhebliche Risiken gegenüber. Dazu gehören die einfache Erzeugung und Verbreitung von Desinformationen, die auch zur Manipulation von Menschen genutzt werden können. Systeme der generativen KI können zu eskalierendem Verhalten neigen und auch für Cyberangriffe missbraucht werden. Aus verschiedenen Gründen drohen auch Risiken für unsere demokratischen Gesellschaften. Manche Risiken sind erkennbar und werden durch Studien gestützt, anderes ist durchaus spekulativ. -
4. Superintelligenz
Karl Hans BläsiusZusammenfassungDie Erfolge von Systemen der generativen KI haben Spekulationen verstärkt, dass diese Entwicklungen auch zu einer Superintelligenz führen könnten. Solche Spekulationen und damit verbundene Risiken sind Gegenstand dieses Kapitels. Vorhersagen zu spektakulären Erfolgen gab es bereits sehr früh in der KI-Forschung, auch dass solche Systeme unser Intelligenzniveau erreichen oder sogar übertreffen könnten. Es gibt zwar theoretische Grenzen, die ein technisches System nicht überschreiten kann, aber diese Grenzen gelten auch für Menschen. Die überraschende Leistungsfähigkeit von ChatGPT hat bereits kurz nach deren Veröffentlichung zu deutlichen Warnungen von KI-Wissenschaftlern geführt, sogar mit dem Hinweis, dass solche Systeme das Überleben der Menschheit bedrohen könnten. Auch in verschiedenen Büchern von KI-Experten wird die Problematik einer möglichen Superintelligenz thematisiert. Auf einige dieser Quellen wird in diesem Kapitel kurz eingegangen. Je mehr Autonomie solche KI-Systeme erlangen, desto schwieriger wird eine menschliche Kontrolle dieser Systeme. Besonders wichtig sind daher Forschungen zur KI-Sicherheit, aber auch Vereinbarungen zur Regulierung von KI-Anwendungen und vielleicht auch von Forschungsaktivitäten. -
5. Risiko eines Atomkriegs aus Versehen
Karl Hans BläsiusZusammenfassungSeit dem ersten Einsatz einer Atombombe in Hiroshima besteht die Angst vor einem Atomkrieg mit verheerenden Folgen. Insbesondere die USA, Russland und dynamisch zunehmend China verfügen über ein großes Arsenal von nuklearen Waffen, so dass ein massiver Einsatz dieser Waffen zum Auslöschen der Menschheit führen könnte. Heute verfügen darüber hinaus sechs weitere Länder ebenfalls über Atomwaffen und die Gefahr eines atomar geführten Krieges ist deutlich gestiegen. In der Vergangenheit gab es einige gefährliche Situationen, in denen aufgrund von technischen Fehlern oder Missverständnissen und Fehlinterpretationen ein Atomkrieg aus Versehen hätte entstehen können. Solche Risiken können von computergestützten Frühwarnsystemen, die einer Erkennung von Angriffen mit Atomwaffen dienen, ausgehen. Hierbei kommen Fehlalarme mit falschen Angriffsmeldungen vor. In einem solchen Fall könnte eine scheinbar angegriffene Nation die Bedrohung als so schwerwiegend ansehen, dass ein nuklearer Gegenschlag, also ein Atomkrieg aus Versehen ausgelöst wird. Mögliche Ursachen und Szenarien für ein solches Risiko und auch Grenzen einer nuklearen Abschreckung werden in diesem Kapitel beschrieben. -
6. KI in Frühwarnsystemen
Karl Hans BläsiusZusammenfassungIn Frühwarnsystemen zur Erkennung von nuklearen Angriffen sind immer mehr Daten in immer kürzeren Zeiträumen zu verarbeiten, was einen zunehmenden Einsatz von KI-Systemen erfordert, um zumindest Teilaufgaben automatisch zu lösen. Selbst eine automatische Bewertung von Angriffsmeldungen und in der Folge ein automatisiert ausgelöster Atomwaffeneinsatz durch ein KI-System sind in Diskussion. Allerdings sind automatische Entscheidungen im Kontext von Atomwaffen mit erheblichen Risiken verbunden. Alarm- und Bedrohungssituationen entstehen in einem durch Unsicherheit geprägten Umfeld, und die Stärke einer scheinbaren Bedrohung kann auch von Zufällen sowie von Aktionen im Cyberraum abhängen. In diesem Kapitel werden auch die Fragen angesprochen, ob Menschen in der Lage sind, maschinelle Entscheidungen mit hinreichender Sorgfalt zu prüfen, und ob Menschen oder eher Maschinen zu besseren Entscheidungen fähig sind. -
7. Autonome Waffensysteme
Karl Hans BläsiusZusammenfassungGroße Fortschritte auf dem Gebiet der KI-Forschung haben auch entsprechende Fortschritte in der Militärtechnik bewirkt. Selbstständig agierende Roboter oder Drohnen können für militärische Zwecke eingesetzt werden, und auf Basis einer automatischen Bilderkennung mit guter Objektklassifikation sind sie in der Lage, feindliche Ziele automatisch zu identifizieren und zu attackieren. Eine erhöhte Autonomie kann bei allen Waffenarten erreicht werden, so gibt es auch bereits autonome Kampfflugzeuge und U-Boote. In diesem Kapitel wird auf solche aktuellen Entwicklungen hingewiesen. Dabei werden auch verschiedene Autonomiegrade beschrieben, die sich durch die Eingriffsmöglichkeiten von Menschen unterscheiden. Autonome Waffen werden in verschiedenen Staaten entwickelt, wobei auch deutsche Unternehmen eine führende Rolle, zum Beispiel bei der Drohnenentwicklung, spielen. Interaktionen zwischen autonom agierenden Waffensystemen könnten in Kriegssituationen in einem Tempo verlaufen, das von Menschen kaum noch kontrollier- und beherrschbar ist. Automatische Tötungsentscheidungen durch autonome Systeme werfen auch ethische Fragen auf, wie die Zuordnung einer Verantwortung. Aufgrund erheblicher Risiken setzen sich einige Organisationen für ein Verbot von autonomen Waffensystemen ein, bisher allerdings erfolglos. -
8. Weitere militärische Aspekte
Karl Hans BläsiusZusammenfassungDie Verwendung von Künstlicher Intelligenz gilt als dritte große Revolution in der Kriegsführung, nach der Erfindung des Schießpulvers und der Entwicklung von Nuklearwaffen. In diesem Kapitel werden weitere Aspekte der Nutzung von KI im militärischen Umfeld behandelt. KI wird die zentrale Technologie in modernen Armeen der Zukunft, wobei KI-Technologien bei allen militärischen Aufgaben Zeitverläufe verkleinern und Wirkungen vergrößern. Allerdings werden damit technologische Abhängigkeiten erheblich verstärkt. KI-basierte Überwachungen können für gezielte Tötungen genutzt werden, wobei sowohl die Zielauswahl also auch die Lokalisierung auf der Grundlage von KI-Techniken erfolgen können. Die kognitive Kriegsführung wird eine neue und wichtige Domäne der großen Militärmächte und dient der Meinungsbildung und der Manipulation von Menschen. Vereinbarungen zur Rüstungskontrolle zwischen den Militärblöcken konnten in der Vergangenheit einen wichtigen Beitrag zur Risikoreduzierung leisten. In Zusammenhang mit KI werden solche Vereinbarungen nicht so einfach möglich sein. -
9. Existenzielle Risiken
Karl Hans BläsiusZusammenfassungSeit Beginn der Industrialisierung sind enorme technische Fortschritte erzielt worden, die allerdings nicht nur großen positiven Nutzen gebracht haben, sondern auch negative Nebenwirkungen verursachen. Solche Nebenwirkungen können in Zukunft globale Auswirkungen haben und viele Menschen oder sogar die gesamte Menschheit bedrohen. Gefahren gehen vor allem von Umweltbelastungen und dem Klimawandel, von Massenvernichtungswaffen und von möglichen Folgen von KI-Anwendungen und einer eventuell entstehenden Superintelligenz aus. Manche dieser gravierenden Risiken werden sich gleichzeitig weiter verschärfen, wozu auch Wechselwirkungen beitragen. Der aktuelle Konfrontationskurs zwischen dem Westen auf der einen und Russland und China auf der anderen Seite verändert Prioritäten in Entwicklungsaktivitäten und beschleunigt ein Wettrüsten auf der Basis von KI-Technologien. Dieses Kapitel behandelt diese Risiken im Hinblick auf existenzielle Aspekte, wobei auch KI und Atomwaffen miteinander verglichen und Eintrittswahrscheinlichkeiten betrachtet werden. Am Ende enthält dieses Kapitel noch Erklärungsversuche, warum das Bewusstsein der Bevölkerung für die bevorstehenden Gefahren nur schwach ausgeprägt ist. -
10. Maßnahmen zur Risikoreduzierung
Karl Hans BläsiusZusammenfassungIn den vorherigen Kapiteln dieses Buches sind verschiedene Risiken beschrieben worden, die gravierende und globale Folgen haben und sogar die Menschheit als Ganzes bedrohen können. Deshalb wäre es dringend erforderlich, Maßnahmen zu ergreifen, die solche Risiken reduzieren können. Es gibt einige Beispiele aus der Vergangenheit, die zeigen, dass auch in scheinbar aussichtslosen Situationen Lösungen möglich sind. Die bevorstehenden Risiken sind nicht alleine auf technischer oder militärischer Ebene lösbar. Zur Risikoreduzierung können verschiedene Optionen herangezogen und miteinander kombiniert werden. Wichtig wären weitreichende und weltweit geltende Vereinbarungen und auch ein gewisses Maß an Vertrauen zwischen den Völkern. -
Backmatter
- Titel
- Künstliche Intelligenz und Krieg
- Verfasst von
-
Karl Hans Bläsius
- Copyright-Jahr
- 2026
- Verlag
- Springer Berlin Heidelberg
- Electronic ISBN
- 978-3-662-72526-9
- Print ISBN
- 978-3-662-72525-2
- DOI
- https://doi.org/10.1007/978-3-662-72526-9
Die PDF-Dateien dieses Buches wurden gemäß dem PDF/UA-1-Standard erstellt, um die Barrierefreiheit zu verbessern. Dazu gehören Bildschirmlesegeräte, beschriebene nicht-textuelle Inhalte (Bilder, Grafiken), Lesezeichen für eine einfache Navigation, tastaturfreundliche Links und Formulare sowie durchsuchbarer und auswählbarer Text. Wir sind uns der Bedeutung von Barrierefreiheit bewusst und freuen uns über Anfragen zur Barrierefreiheit unserer Produkte. Bei Fragen oder Bedarf an Barrierefreiheit kontaktieren Sie uns bitte unter accessibilitysupport@springernature.com.