Activate our intelligent search to find suitable subject content or patents.
Select sections of text to find matching patents with Artificial Intelligence. powered by
Select sections of text to find additional relevant content using AI-assisted search. powered by (Link opens in a new window)
Zusammenfassung
27.1 Einleitung
Sicherheit und Frieden können auf vielfältige Weise bedroht werden, wobei es Risiken mit möglicherweise gravierenden globalen Auswirkungen gibt, die sogar das Überleben der gesamten Menschheit bedrohen können. Solche Risiken können von Atomwaffen, Pandemien und auch von Systemen der Künstlichen Intelligenz ausgehen.
Im Zusammenhang mit Atomwaffen wird seit vielen Jahrzehnten davor gewarnt, dass ein Atomkrieg nicht gewonnen werden kann, kaum begrenzbar ist und das Leben auf der Erde vernichten könnte. Auch könnten Missverständnisse und Fehlinterpretationen durch Menschen und/oder Maschinen zu einem Atomkrieg aus Versehen führen. Hierbei könnten Abhängigkeiten und zu viel Vertrauen in die Entscheidungen von Maschinen fatal sein. Andererseits sind Vertrauen und Kommunikation zwischen den großen Nuklearmächten erforderlich, um das nukleare Risiko in Krisensituationen zu reduzieren.
Advertisement
Diese Erkenntnis hatte auch zu wichtigen Vereinbarungen wie „Open Skies“ geführt, um Transparenz und Vertrauen zu verbessern. 1992 wurde zwischen 27 Staaten der Nato und des ehemaligen Warschauer Pakts ein Vertrag über den „Offenen Himmel“ (Open Skies Treaty) geschlossen. Dieser Vertrag diente der Überwachung von Vereinbarungen der Rüstungskontrolle sowie zur Konfliktverhütung und -bewältigung und war eine wichtige vertrauensbildende Maßnahme. Ziel dieses Vertrags sowie weiterer Verträge zur nuklearen Rüstungskontrolle (z. B. INF) war wesentlich die Sicherung der globalen Stabilität und der Erhalt des Friedens. Allerdings sind der Open-Skies-Vertrag und weitere wichtige Verträge der Rüstungskontrolle inzwischen gekündigt. Dies hat zu einem erheblichen Vertrauensverlust geführt und den Friedensbestrebungen geschadet.
Im Jahr 2023 haben KI-Wissenschaftler und Chefs großer KI-Unternehmen vor erheblichen Risiken durch KI gewarnt, auch davor, dass KI zum Aussterben der Menschheit führen könnte.1 Hintergrund dieser Warnung ist die Befürchtung, dass es schon bald zu einer allgemeinen Künstlichen Intelligenz (AGI, Artificial General Intelligence) oder sogar zu einer Superintelligenz kommen könnte. Weitere Risiken in Zusammenhang mit KI können die Entwicklung von autonomen Waffensystemen, gefährliche Wechselwirkungen zwischen KI und Atomwaffen sowie die Entwicklung von Bio- oder Chemiewaffen mithilfe von KI sein.
Der Mangel an gegenseitigem Vertrauen verbunden mit neuen technischen Entwicklungen, die immer weniger beherrschbar sind, gefährdet zunehmend die globale Sicherheit und den Frieden.
27.2 Vertrauensverlust und kritische Sicherheitslage
Bereits vor Beginn des Russland-Ukraine-Krieges am 24.02.2022 waren das Vertrauensverhältnis zwischen den Atommächten USA und Russland sehr schlecht und die Sicherheitslage in Europa kritisch. Dazu ein Zitat aus dem Jahr 2020 von zwei Experten der Sicherheitspolitik, Prof. Staack von der Universität der Bundeswehr Hamburg und Prof. Hauser von der Landesverteidigungsakademie in Wien: „Die Beziehungen zwischen Russland und den westlichen Staaten sind gegenwärtig so schlecht wie seit den frühen 1980er-Jahren nicht mehr – der Zeit vor dem Amtsantritt Michail Gorbatschows in der damaligen Sowjetunion (1985). Sicherheitspolitisch fällt die Analyse noch kritischer aus. Der damalige Kalte Krieg bewegte sich in relativ geordneten Bahnen, und beide Seiten bemühten sich insbesondere, Risiken durch versehentliche militärische Zusammenstöße zu vermeiden. An solchen eingespielten Mechanismen und Selbstkontrollen fehlt es derzeit, und das im OSZE-Rahmen aufgebaute Netzwerk von vertrauens- und sicherheitsbildenden Maßnahmen und Krisenprävention wird nicht geachtet und genutzt. Deshalb ist eine militärische Eskalation aus Versehen wahrscheinlicher geworden, als sie das in den 1980er-Jahren war. Dazu tragen auch neue Waffensysteme mit verkürzten Vorwarnzeiten bei.“
Advertisement
Ein dringender Appell zur Verbesserung der Beziehungen zwischen der Nato und Russland und zur Deeskalation der militärischen Risiken wurde unter anderem von 16 früheren Außen- und Verteidigungsministern, 27 ehemaligen Generälen und Admirälen, 24 Botschaftern und 55 Experten aus Universitäten und Think Tanks unterzeichnet und am 06.12.2020 veröffentlicht.2 Ein weiterer dringender Appell von militärischen Experten zur Deeskalation folgte im Dezember 2021.3
Das Gegenteil von dem, was diese Experten der Sicherheitspolitik dringend empfohlen haben, ist anschließend eingetreten. Mit dem Beginn des Krieges in der Ukraine wurden sehr viele wirtschaftliche, technologische, kulturelle und sonstige Beziehungen zu Russland abgebrochen. Auf längere Sicht ist damit ein gewisses Maß an Vertrauen und Zusammenarbeit zerstört. Die damit verbundenen Risiken für den Frieden können nicht durch mehr militärische Stärke und Abschreckung ausgeglichen werden. Diese Aspekte werden in den nachfolgenden Kapiteln behandelt.
27.3 Konfrontationskurs und Rüstungswettlauf
Mit Beginn des Russland-Ukraine-Krieges wurden viele wirtschaftliche, wissenschaftliche und kulturelle Beziehungen zwischen dem Westen und Russland abgebrochen und der politische Austausch ist stark eingeschränkt. Statt Zusammenarbeit dominiert ein Konfrontationskurs und dies hat einen enormen Rüstungswettlauf in vielen Bereichen zur Folge. Dies betrifft auch die Bewaffnung des Weltraums, die Entwicklung besserer Trägersysteme für Atomwaffen und softwarebasierte Waffen, wie Cyberwaffen und autonome Waffensysteme.
Die Erfolge auf dem Gebiet der Künstlichen Intelligenz werden auch in der Militärtechnik genutzt und führen zu selbständig agierenden Robotern und Drohnen. Mit Hilfe automatischer Bilderkennung werden autonome Fähigkeiten immer weiter verbessert, so dass feindliche Ziele weitgehend automatisch identifiziert und attackiert werden können. Nicht nur Roboter und Drohnen, sondern auch viele andere Waffensysteme, wie Kampfjets und U-Boote können mit immer mehr Autonomie ausgestattet werden. Für Autonomie in Waffensystemen gibt es ein großes Anwendungsspektrum. Unbemannte autonome U-Boote, die sogar nuklear bewaffnet sein könnten, würden die strategische Stabilität erheblich gefährden und so das Atomkriegsrisiko erhöhen (Grünwald & Kehl, 2020).
Die Künstliche Intelligenz und der Cyberraum gelten derzeit als besonders wichtige Technologiefelder und militärtechnologisch führende Nationen werden alle Anstrengungen unternehmen, um auch in solchen Feldern führend zu sein. Die Fähigkeiten potenzieller Gegner in den Bereichen Cyberwaffen und autonome Waffen sind nur schwer oder gar nicht erkennbar. Deshalb muss jede Nation hohe Priorität auf forcierte eigene Entwicklungstätigkeiten legen.
Flugzeuge, Schiffe, Panzer und Atomwaffen sind zählbar. Bei solchen Waffensystemen haben Rüstungskontrolle und Verifikation in der Vergangenheit eine große Rolle gespielt. Cyberwaffen und autonome Waffen basieren auf Software. Softwaresysteme haben spezielle Merkmale, für die bekannte Vorgehensweisen zur Rüstungskontrolle und zur Verifikation von Vereinbarungen nicht anwendbar sind.
Von Software sind jederzeit beliebig viele Kopien herstellbar und in unterschiedlichen Situationen einsetzbar. Softwareentwicklung verläuft in der Regel kontinuierlich, wobei viele Zwischenstände anwendbar sind. Bei einem Einsatz ist nur ein Teil der Fähigkeiten sichtbar, weitere Fähigkeiten könnten enthalten sein, deren Wirkung nicht vorhersehbar ist. Für Außenstehende ist nicht erkennbar, welches Potential in einer Software steckt.
Bei großen Entwicklungsprojekten, die oft viele Millionen Zeilen Code enthalten, haben auch die einzelnen Mitglieder eines Teams nur einen eingeschränkten Einblick in das Gesamtsystem. Noch schwieriger, mögliche Funktionalitäten einer Software zu erkennen, wird es für Außenstehende, die in keiner Weise an der Entwicklung beteiligt sind.
Zur Verifikation von Rüstungskontrollvereinbarungen müsste ein Staat zulassen, dass Mitarbeiter eines gegnerischen Staates Einblick in die eigene Software von Waffensystemen erhalten. Es ist kaum vorstellbar, dass solche Vereinbarungen getroffen werden, denn das Risiko, dass der Gegner auf diese Weise Kopien dieser Software erhält, wäre vermutlich zu hoch. Des Weiteren ist es technisch schwierig und sehr aufwendig alle möglichen Funktionalitäten einer solchen Software zu erkennen. Das könnte Jahre dauern, in denen die Software aber weiterentwickelt würde. Es wäre auch nicht feststellbar, ob eine zu prüfende Software tatsächlich die relevante Version ist oder ob diese verändert wurde und nicht alle Funktionen enthält. Auch im Falle entsprechender Vereinbarungen wird nicht überprüfbar sein, ob alle Kopien der Software für ein autonomes Waffensystem gelöscht sind. Software, die einmal für autonome Waffen entwickelt ist, wird immer erhalten bleiben. Vereinbarungen zur Vertrauensbildung, wie z. B. Open-Skies, werden bezüglich Software kaum möglich sein.
Für Transparenz und Vertrauensbildung sind der Abbruch wissenschaftlicher und wissenschaftsdiplomatischer Beziehungen zu Russland und die Einschränkung solcher Kontakte zu China schädlich. Damit werden Forschung und Entwicklung in wichtigen Feldern wie der KI weniger transparent. Weniger wissenschaftlicher Austausch bedeutet auch weniger Kontakt zwischen den betroffenen Menschen, und als Folge könnte die Bereitschaft von Wissenschaftlern steigen, sich auch an Rüstungsprojekten zu beteiligen. Auch solche Aspekte können einen Rüstungswettlauf im Bereich KI beschleunigen.
Der aktuelle softwarebasierte Rüstungswettlauf führt zu Waffensystemen, die für Menschen kaum beherrschbar sein werden und auch die Anstrengungen zur Entwicklung einer starken KI (AGI) werden verstärkt. Jede Großmacht weiß, dass sie dieses Rennen auf keinen Fall verlieren darf.
27.4 Glaubenssystem „Nukleare Abschreckung“
Die überwiegende Meinung in der Politik und unseren Medien ist, dass unsere westlichen Werte auch mit militärischer Stärke verteidigt werden müssen und dazu eine Kriegstüchtigkeit erforderlich ist. Auch gibt es immer wieder Forderungen, die nukleare Abschreckung zu stärken und gegebenenfalls Deutschland oder Europa nuklear aufzurüsten. Vertrauensbildung und die Anerkennung der legitimen Sicherheitsinteressen des potenziellen Gegners scheinen irrelevant zu sein. Viele glauben, Frieden kann auch ohne Vertrauen mit militärischer Stärke gesichert werden, wobei insbesondere der „nukleare Schutzschirm“ als besonders relevant angesehen wird.
Zwischen den großen Atomwaffenstaaten gilt die Strategie der nuklearen Abschreckung, die auf einer Zweitschlagfähigkeit beruht. Die Zweitschlagfähigkeit besagt, dass ein angegriffener Staat den Einschlag von Atomwaffen abwarten kann und noch genügend Zeit und Potential hat, um in jedem Fall einen vernichtenden Gegenangriff führen zu können – im Schlagwort: „Wer als Erster schießt, stirbt als Zweiter.“ Zudem behalten sich beide Seiten vor, im Fall von aufgeklärten (möglichst sicher erkannten) nuklearen Angriffen die eigenen atomaren Trägerraketen vor einem vernichtenden Einschlag zu starten. Eine solche Strategie wird als „launch on warning“ bezeichnet. Grundlage hierfür sind Frühwarnsysteme, die einen Angriff mit Atomraketen rechtzeitig erkennen sollen.
Auch wenn die nukleare Abschreckung einen Atomwaffeneinsatz bisher vermutlich verhindert hat, gibt es keine Garantie, dass dies auch zukünftig gilt. Dies wird auch von Experten aus Militär und Sicherheitspolitik so gesehen. Brigadegeneral Kersten Lahl und Politikwissenschaftler Johannes Varwick schreiben dazu (2022): „Je mehr nukleare Akteure ‚mitspielen‘, je ausgereifter die technischen Entwicklungen werden und je komplexer sich damit das strategische Entscheidungsfeld um nukleare Einsätze und Einsatzdrohungen gestaltet, desto höher wird das Risiko einer mangelnden internationalen Beherrschbarkeit der Kategorie nuklearer Waffen.“4
Im Zusammenhang mit nuklearer Abschreckung wird auch von einem nuklearen Schutzschirm gesprochen. Dieser Begriff ist irreführend. Viele Menschen und Politiker vertrauen darauf, dass ein solcher Schutz dauerhaft wirksam ist. Ein solches Vertrauen ist aber gefährlich und könnte zu einer globalen Katastrophe führen.
Peter Rudolph schreibt (2022): „Nukleare Abschreckung ist ein Konstrukt, in welchem Annahmen, denen es an empirischer Grundlage fehlt, eine wichtige Rolle spielen. So wird die zentrale Frage, nämlich nach der Glaubwürdigkeit, seit Jahrzehnten unterschiedlich beantwortet.“
Brigadegeneral a.D. Helmut W. Ganser schreibt (2024): „Nukleare Abschreckungsdoktrinen und sogenannte atomare ‚Schutzschilde‘ sind prekäre geistige Konstrukte, letztendlich Glaubenssysteme. Technische Fehler, insbesondere bei der künftigen Nutzung von Künstlicher Intelligenz in den Aufklärungs- und Frühwarnsystemen, und menschliche Fehleinschätzungen können zum Versagen der Abschreckung führen.“
Die nukleare Abschreckung ist lediglich eine Androhung von Strafe, wobei klar ist, dass eine tatsächliche Durchführung eines nuklearen Gegenschlages auch zu einer erheblichen Schädigung des eigenen Volkes führen würde, denn dies könnte einen nuklearen Winter auslösen oder diesen verstärken.
27.5 Grenzen der Abschreckung
Selbst unter der Annahme, dass die nukleare Abschreckung bisher erfolgreich war und Kriege verhindert hat, gilt nicht, dass dies auch in Zukunft so bleibt. Die neuen technischen Entwicklungen vor allem im Bereich der Informatik und speziell der Künstlichen Intelligenz führen zu neuen Bedrohungsarten, gegen die eine nukleare Abschreckung nicht schützen kann. Stattdessen erhöht sich das nukleare Eskalationsrisiko.
Solche neuen Bedrohungsarten können sein:
-
Gravierende Cyberangriffe, z. B. auf kritische Infrastruktur
-
Autonome Waffensysteme
-
Einsatz von Biowaffen, eventuell mithilfe von KI erzeugt
-
Desinformationen, Deep Fakes, Störung des Informationsaustauschs im Internet
-
Superintelligenz
Eine nukleare Abschreckung mag gegen einen Angriff mit konventionellen oder nuklearen Waffen durch einen anderen Staat schützen.
Nukleare Abschreckung
-
schützt nicht vor einem Atomkrieg aus Versehen als Folge von Fehlern in einem Frühwarnsystem und Missverständnissen in Krisensituationen,
-
schützt nicht vor schwerwiegenden Cyberangriffen, die auch von privaten Akteuren durchgeführt werden können,
-
schützt nicht vor massenhafter Anwendung von autonomen Waffen, z. B. durch Terroristen,
-
schützt nicht vor Biowaffen, eventuell mithilfe von KI erzeugt und von Terroristen eingesetzt,
-
schützt nicht vor Risiken durch Systeme der generativen KI,5
-
schützt nicht vor möglichen, negativen Folgen einer Superintelligenz.
Gravierende Folgen der aktuellen technischen Entwicklungen können zu einem nicht vorhersehbaren Zeitpunkt eintreten, auch eine AGI oder sogar eine Superintelligenz sind dementsprechend in den nächsten Jahrzehnten möglich.6 Gegen diese Risiken können keine Atomwaffen schützen. Davor schützen kann nur ein schnelles Ende der aktuellen Kriege und der Aufbau von Vertrauen und Zusammenarbeit mit allen Nationen, auch mit Russland und China.
Das oben erwähnte Risiko eines Atomkriegs aus Versehen wird in den nachfolgenden Abschnitten behandelt.
27.6 Atomkrieg aus Versehen
Zur Erkennung von möglichen Angriffen durch Atomraketen sind Frühwarnsysteme entwickelt worden, die auf Sensoren und sehr komplexen Computernetzwerken basieren. In diesen Systemen können aus ganz unterschiedlichen Gründen Fehler vorkommen, wobei ein Angriff mit Atomraketen gemeldet wird, obwohl kein Angriff vorliegt. Solche Fehlalarme wurden z. B. durch Hardware-, Software- oder Bedienungsfehler oder eine falsche Erkennung und Bewertung von Sensorsignalen verursacht. In Friedenszeiten sind die Risiken sehr gering, dass eine solche Alarmmeldung einen Gegenangriff mit Atomwaffen auslöst, stattdessen werden im Zweifelsfall Fehlalarme angenommen.
Fehlalarme in solchen Frühwarnsystemen für nukleare Bedrohungen können dann gefährlich werden und zu einem Atomkrieg aus Versehen führen, wenn man einem politischen Gegner einen solchen Angriff glaubwürdig zutrauen kann. Nukleare Drohungen von einer oder mehreren Seiten verstärkten ein solches Risiko (Staack et al., 2022). Die Gefahr eines Atomkriegs aus Versehen erhöht sich auch, wenn in zeitlichem Kontext mit einem Fehlalarm weitere Ereignisse, wie z. B. Flugzeugabstürze oder Cyberangriffe eintreten, die mit dieser Alarmmeldung in Zusammenhang gesetzt werden können. Das Computersystem und das Bedienungspersonal würde versuchen, kausale Bezüge für solche Ereignisse zu finden, die sehr wahrscheinlich, bzw. logisch plausibel sind, und falls solche Zusammenhänge in einer Krisensituation gefunden werden, ist die Gefahr groß, dass die Alarmmeldung auch dann als gültig angenommen wird, wenn die Ereignisse unabhängig voneinander sind und nur zufällig in zeitlichem Kontext aufgetreten sind.
Für jedes komplexe System gilt, dass sich Fehler nicht grundsätzlich ausschließen lassen und dass diese sowohl durch Menschen als auch durch Algorithmen verursacht werden können. Eine fehlerfreie Software ist für komplexe Anwendungen technisch nicht realisierbar. Zur Fehlerreduzierung ist das Testen ein wichtiges Mittel. Allerdings wird es kaum möglich sein, Frühwarnsysteme unter realen Bedingungen zu testen.
Wenn es gelingt, Frühwarnsysteme so zu verbessern, dass Fehlalarme nur noch sehr selten auftreten, wird damit die Sicherheit nicht erhöht. Die nur noch selten vorkommenden Alarmmeldungen sind dann ungewöhnlich und schwer interpretierbar. Damit wird die Gefahr deutlich größer, dass diese als ernst – also gültig – angenommen werden. Dies gilt insbesondere in Krisensituationen, in denen man einem potenziellen Gegner einen solchen Angriff zutraut, oder wenn es zeitnah weitere potentiell aggressive Ereignisse gibt, die damit in Zusammenhang gesetzt werden können.
In der Vergangenheit, z. B. während der Kuba-Krise, gab es gefährliche Situationen, in denen es nur durch großes Glück nicht zu einem Atomkrieg aus Versehen kam. Ein Vorfall, der sich am 26.09.1983 ereignete, ist besonders bekannt geworden: Ein Satellit des russischen Frühwarnsystems für nukleare Bedrohungen meldete innerhalb weniger Minuten fünf angreifende Interkontinentalraketen. Der diensthabende russische Offizier Stanislaw Petrow hätte in dieser Situation die Alarmmeldung an seinen Vorgesetzten weitergeben müssen, denn die korrekte Funktion des Satelliten wurde festgestellt. Petrow entschied aber, dass es ein Fehlalarm sei, denn er hielt einen Angriff der USA mit nur fünf Raketen für unwahrscheinlich.
Es ist zu erwarten, dass das Risiko eines Atomkriegs in den nächsten Jahren und Jahrzehnten steigen wird. Unter anderem wird auch der Klimawandel zu mehr Krisen führen, und neue technische Entwicklungen, wie z. B. neue Trägersysteme für Atomwaffen, eine Bewaffnung des Weltraums, Laserwaffen und der Ausbau von Cyberkriegskapazitäten werden die Komplexität von Frühwarnsystemen und Bedrohungssituationen so stark erhöhen, dass die Beherrschbarkeit solcher Systeme immer schwieriger wird.
27.7 Automatische Entscheidungen bei unsicherem Kontext
Die Komplexität der Erkennungsaufgaben bei der Luftraumüberwachung nimmt ständig zu. Dies liegt einerseits an Weiterentwicklungen in der Sensortechnik, womit immer mehr Daten geliefert werden und andererseits an der zunehmenden Anzahl und Varianz an Luftobjekten (z. B. Drohnen), die zu erkennen sind. Zudem führt die Weiterentwicklung von Waffensystemen mit immer kürzeren Flugzeiten (Hyperschallraketen) zu kleineren Entscheidungszeiten, sodass die verfügbare Zeit für menschliche Entscheidungen kaum noch reichen wird. Der Einsatz von Techniken der Künstlichen Intelligenz wird so immer wichtiger, um für gewisse Teilaufgaben Entscheidungen automatisch zu treffen (Bläsius & Siekmann, 2022).
Die in solchen Situationen für eine Entscheidung verfügbaren Daten sind in der Regel unpräzise, unsicher und unvollständig. Bei der Bewertung von Sensorsignalen spielen vage Werte wie Helligkeit und Größe eine Rolle, wobei es ein kontinuierliches Spektrum zwischen „trifft nicht zu“ und „trifft zu“ geben kann. Die Klassifikation von Objekten und die Bestimmung von Objektmerkmalen ist immer unsicher und gilt nur mit gewisser Wahrscheinlichkeit. Signale werden auch nicht immer auftreten, können also unvollständig sein. Dies kann insbesondere für neue lenkbare Raketensysteme gelten, die einer Erfassung ausweichen können. Zudem wurden für die elektronische Kampfführung Systeme entwickelt, die es ermöglichen sollen, einer Erkennung durch die gegnerische Flugabwehr zu entgehen. Im Falle einer Angriffsmeldung kann also nicht sichergestellt werden, dass die Daten auf Basis mehrerer unabhängiger Signalquellen überprüft werden können.
Aufgrund der unsicheren und unvollständigen Datengrundlage werden auch KI-Systeme nicht zuverlässig entscheiden können. Dies ist eine prinzipielle Grenze, die gültig ist, egal wie hochentwickelt KI-Systeme eines Tages sein werden. Auch Menschen bleibt keine hinreichende Zeit, die Entscheidungen der Maschine sorgfältig überprüfen zu können. Ihnen bleibt nur der Glaube, daß das was die Maschine liefert, auch richtig ist. Solche nicht hinnehmbaren Unsicherheiten können auch in sonstigen sicherheitsrelevanten Situationen oder bei konventionellen Waffensystemen relevant sein, sind dort aber eher tolerierbar, da die Auswirkungen meist begrenzt sind. Dagegen kann es beim Einsatz von Atomwaffen um das Überleben der gesamten Menschheit gehen.
27.8 Erwartungshaltung und Vertrauen
Bei der Bewertung von Alarmmeldungen wird es in der verfügbaren geringen Zeitspanne von wenigen Minuten oft nicht möglich sein zu entscheiden, ob es sich um einen echten Angriff oder einen Fehlalarm handelt. Wenn die technischen Systeme keine klaren Antworten liefern, könnte bei der Bewertung solcher Alarmmeldungen die Erwartungshaltung eine entscheidende Rolle spielen, also Fragen wie: Wie ist die gegenwärtige weltpolitische Lage? Kann dem Gegner derzeit ein solcher Angriff zugetraut werden? Die Entscheidung der Bewertungsmannschaft wird folglich auch vom gegenseitigen Vertrauensverhältnis zwischen den Konfliktparteien abhängen.
Ein Beispiel für eine fatale Fehlentscheidung ist der Absturz eines ukrainischen Verkehrsflugzeugs am 08.01.2020 im Iran. Die 176 Insassen starben. Wenige Tage später kam heraus, dass dieses Flugzeug aus Versehen von der iranischen Luftabwehr abgeschossen wurde.
Wie konnte so etwas geschehen? Am 03.01.2020 hatten die USA den iranischen General Soleimani mit einem Drohnenangriff getötet. Als Vergeltungsangriff griff der Iran wenige Tage später amerikanische Stellungen im Irak an. Kurz danach wurde das ukrainische Verkehrsflugzeug aus Versehen abgeschossen. Die Bedienungsmannschaft hatte mit einem Vergeltungsangriff der USA gerechnet, und in dieser angespannten Situation das Flugobjekt für einen angreifenden Marschflugkörper gehalten. Der politische Kontext und eine entsprechende Erwartungshaltung hatten bei der Situationsbewertung höheres Gewicht als rein sachliche Fakten, wie z. B. die Größe des Radarsignals, das für einen Marschflugkörper eigentlich zu groß war.
Können in Krisensituationen auch im Zusammenhang mit Alarmmeldungen in Frühwarnsystemen für nukleare Bedrohungen gefährliche Fehlkalkulationen auftreten? Man kann sich auch die Frage stellen: Wie würde jemand wie Petrow heute in einer ähnlichen Situation wie am 26.09.1983 entscheiden? Käme es heute in Russland zu einer solchen Alarmmeldung, wüsste der verantwortliche Offizier, dass viele wissenschaftliche, wirtschaftliche und kulturelle Beziehungen abgebrochen sind, und er würde möglicherweise denken: „Niemand will mehr etwas mit uns zu tun haben, alle hassen uns.“ Wie wird bei solchen Gedanken seine Entscheidung ausfallen? Wird er auch jetzt entscheiden, dass es nur ein Fehlalarm sein kann?
Im Kontext eines vermehrten Einsatzes von KI wird immer wieder betont, dass die letzte Entscheidung beim Menschen liegen muss, da eine KI nicht über eine hierfür notwendige soziale Kompetenz wie etwa Empathie verfügt. Wie ist es aber mit der Empathie, dem Einfühlungsvermögen von Menschen bestellt, wenn jetzt alle menschlichen Kontakte zwischen Nato-Staaten und Russland abgebrochen werden? Wenn Menschen auf beiden Seiten unter den Sanktionen und dem Abbruch aller Beziehungen leiden und Hass aufgebaut wird, könnte sich dies auch nachteilig auf die Bewertung von Alarmmeldungen auswirken. Wenn es keinerlei Beziehungen gibt und der Gegner verhasst ist, dann wird man dem Gegner einen solchen Angriff eher zutrauen. Das könnte die Tendenz erhöhen, einen Alarm als echten Angriff einzustufen und würde das Risiko eines Atomkriegs aus Versehen deutlich erhöhen.
Wenn es dagegen gute und vielfältige Beziehungen zwischen Nato-Staaten und Russland und auch viele persönliche Beziehungen gibt, wenn Personen einer Bewertungsmannschaft vielleicht selbst Kontakte zu Menschen der anderen Nationen haben, wird die Tendenz, eine Alarmmeldung als Fehlalarm einzustufen, vermutlich höher sein.
In Krisen- oder Kriegssituationen kann es auch im Zusammenhang mit Atomwaffen leicht zu fatalen Fehlkalkulationen kommen, so wie bei dem versehentlichen Abschuss der ukrainischen Verkehrsmaschine im Iran im Januar 2020. Kriegsrhetorik, nukleare Drohungen und der Abbruch vieler Beziehungen (z. B. wirtschaftlich, wissenschaftlich, kulturell) können maßgeblich zu einer Erwartungshaltung beitragen, die in einer Alarmsituation zu einer fatalen Fehlkalkulation führen kann.
Ein gewisses Maß an Vertrauen und möglichst viele Kontakte auf allen Ebenen würden die Risiken erheblich reduzieren.
27.9 Überprüfbarkeit
Die Datengrundlage ist bei automatisierten Entscheidungen häufig vage, unsicher und unvollständig. Erkennungsergebnisse können deshalb grundsätzlich falsch sein. Dies gilt auch dann, wenn eine automatische Entscheidung von diesem System als sicher eingestuft wird.
Automatische Entscheidungen basieren häufig auf Hunderten von gewichteten Merkmalen, aus denen mit einer speziellen Formel ein Gesamtergebnis errechnet wird. Das Zustandekommen eines solchen Gesamtergebnisses ist in der Regel nicht einfach nachvollziehbar, denn es gibt oft keinen einfach überprüfbaren Lösungsweg. Eine Überprüfung könnte mehrere Stunden oder Tage dauern und übersteigt damit das Zeitlimit bei nuklearen Alarmmeldungen in Frühwarnsystemen bei weitem. Automatische Entscheidungen können auf unterschiedlichen methodischen Ansätzen beruhen, wie z. B. symbolischen Ableitungen, statistischen Verfahren oder neuronalen Netze. Das Problem der fehlenden Zeit für menschliche Überprüfungen von Entscheidungen gilt für alle diese Ansätze.
In vielen Fällen reicht es nicht, das Ergebnis einer automatischen Entscheidung alleine zu betrachten, sondern auch ein Lösungsweg oder eine Begründung sind zu untersuchen, um das Ergebnis zu bewerten. Wenn die Zeit hierfür nicht reicht, bleibt dem Menschen nur zu glauben, was die Maschine liefert. Menschen machen auch die Erfahrung, dass KI-Entscheidungen immer besser werden, was auch dazu führt, dass das Vertrauen in solche Systeme und deren Entscheidungen steigt. Für diese Menschen wird es deshalb immer schwerer, sich den Entscheidungen der Maschine zu widersetzen. Wenn sie sich doch mal anders entscheiden möchten, als von der Maschine vorgeschlagen, müssten sie befürchten, zur Rechenschaft gezogen zu werden, falls sich ihre Entscheidung als schlechter oder falsch herausstellt.
Immer wieder wird gefordert, dass das Prinzip „man in the loop“ gelten muss, dass also die letzte Entscheidung über Leben und Tod bei einem Menschen liegen muss. Dies könnte sich aber als Scheinkontrolle herausstellen, denn die Komplexität vorliegender Informationen könnte es verhindern, in der verfügbaren Zeit eine geeignete Grundlage für menschliche Entscheidungen zu finden. Bei wichtigen Aufgaben, wie z. B. der Bewertung einer nuklearen Alarmmeldung, könnte es vielleicht helfen, wenn Menschen über Informationen verfügen, die die Maschine nicht hat. Dies könnte es erleichtern, sich gegen eine Entscheidung der Maschine zu stellen.7
27.10 Vertrauenskrise durch Falschnachrichten
In den letzten Jahren waren Konflikte zwischen Staaten regelmäßig von Cyberangriffen begleitet. Diese Tendenz wird sich weiter verstärken, und die Cyberkriegskapazitäten werden von vielen Staaten auf- und ausgebaut. Das Schadenspotential von Cyberangriffen kann besonders groß sein, wenn die kritische Infrastruktur getroffen wird. Dies kann die Bereiche Energie, Wasser, Gesundheit, Ernährung, Telekommunikation, Logistik, Finanzwesen und die staatliche Verwaltung betreffen. Auch Satelliten und Komponenten der Nuklearstreitkräfte können angegriffen werden. Komponenten oder Daten eines Frühwarnsystems für nukleare Bedrohungen könnten auf vielfältige Art attackiert und manipuliert werden. Jede übermittelte Information an ein solches System könnte falsch sein, was in vielen Fällen nicht feststellbar wäre.
Audio- und Videodateien können mit Techniken des Deep Fake so erzeugt werden, dass Personen einen beliebigen Text darin sprechen, ohne dass dies als Fälschung erkannt wird. Besonders gefährlich kann es werden, wenn es Alarmmeldungen in Frühwarnsystemen für nukleare Bedrohungen gibt, und es Hackern gelingt, sich in eine Konferenz zur Bewertung dieser Alarmmeldungen einzuschalten. Sie könnten dabei eine Verbindung zu einem falschen Vorgesetzten oder sogar einem falschen Präsidenten herstellen und diesen irgendwelche Befehle sprechen lassen. Bedienungsmannschaften in Frühwarnsystemen werden auch wissen, dass alles (z. B. Ton- und Videoaufnahmen) gefälscht sein könnte und dies kann in Krisensituationen zu großen Unsicherheiten bei Konferenzen zur Bewertung von Alarmmeldungen führen.
27.11 Risiken durch generative KI: Desinformationen
Das Problem von Desinformationen und Deep Fakes könnte durch Systeme der generativen KI erheblich verschärft werden. Systeme wie ChatGPT liefern derzeit in vielen Fällen recht gute und plausibel erscheinende Ergebnisse, die verwendet werden können, um Texte zu schreiben. Werden die Ergebnisse häufiger genutzt, wird das Vertrauen steigen; die automatisch erzeugten Texte werden nicht oder nicht hinreichend auf Korrektheit geprüft, sondern einfach übernommen. Allerdings sind die automatisch erzeugten Antworten teilweise „halluziniert“ und damit falsch. Dies muss nicht direkt erkennbar sein, sondern würde erst eine detailliertere Recherche erfordern, wofür die Zeit häufig fehlt.
Eine Kennzeichnung automatisch erzeugter Texte wird schwierig sein, denn auch manuell erzeugte Texte können Abschnitte enthalten, die automatisch erzeugt sind, und diese Tendenz könnte zunehmen. Dies gilt natürlich auch für Quellen, auf die in einem Text verwiesen wird. Die Erleichterung der Texterstellung kann dazu führen, dass viel mehr Texte entstehen, wobei immer unklarer wird, was die Basisquellen und korrekten Informationen sind und was als Desinformation betrachtet werden muss. Wenn ein Zustand eintritt, in dem kaum noch jemand weiß, welche Informationen in den Medien gültig sind, wird das Vertrauen in Medieninhalte und die Medien selbst erheblich sinken.
Politiker haben das gleiche Problem: Sie können nicht mehr feststellen, welche Informationen aus der riesigen Informationsflut gültig sind und welchen Ursprung sie haben. Es wird zunehmend schwieriger festzustellen, welche Informationen als Grundlage für politische Entscheidungen geeignet sind. Damit stellt sich die Frage, wie gewählte Politiker die Kontrolle über unsere Gesellschaftsformen behalten wollen. Das Vertrauen in unsere Gesellschaftssysteme und auch zwischen verschiedenen Völkern kann so erheblich beeinträchtigt werden, und dies würde sowohl den inneren als auch den äußeren Frieden gefährden.
27.12 Eskalierendes Verhalten
Ein Beitrag bei Telepolis am 11.02.2024 warnt davor, dass KI-Systeme in einem Krieg frühzeitig Atomwaffen einsetzen würden.8 Dabei wird auf eine Studie verwiesen, in der Experimente mit verschiedenen Systemen der generativen KI durchgeführt wurden, mit dem Ergebnis, dass diese KI-Systeme ein eskalierendes Verhalten bevorzugen könnten.9 Auch ein Artikel bei Foreign Affairs verweist auf Erkenntnisse über ein eskalierendes Verhalten von KI-Systemen.10
Für ein solches Verhalten kann es verschiedene Ursachen geben. Entscheidungen basieren häufig darauf, dass in bestimmten Situationen aus einer großen Anzahl an Alternativen, eine geeignete Auswahl für einen nächsten Schritt getroffen werden muss. Die Bewältigung so entstehender riesiger Suchräume ist ein Grundproblem der KI. Auch für Systeme der generativen KI gilt, dass in jeder Situation sehr viele mögliche Alternativen für eine nächste Aktion oder eine Antwort existieren, wobei von diesen vielen Alternativen eine möglichst gute gewählt werden muss. Den einzelnen Alternativen sind meist Bewertungsmaße (Gewichte) zugeordnet, auf deren Basis die Auswahl mit Hilfe von Strategien und Heuristiken erfolgen kann.
Um Ergebnisse von KI-Systemen zu verbessern, kann versucht werden, erfolgreiche Aktionen höher zu bewerten und dabei Gewichte möglicher Operationen zu verändern. Eine Erfolgsbewertung bei der generativen KI könnte auf Grundlage der Resonanz zu gelieferten Antworten erfolgen, also auf Berücksichtigung der weiteren Kommunikation mit der Person oder dem technischen System, von dem die Anfrage kam.
Polarisierende Inhalte und Falschinformationen verbreiten sich im Internet schneller als sachliche Informationen. Passend zum Geschäftsmodell der großen Internet-Konzerne binden solche erregenden Inhalte die Aufmerksamkeit der Nutzer stärker, was zu höheren Gewichtungen entsprechender Alternativen bei der Auswahl der nächsten Systemvorschläge führt und somit ein eskalierendes Verhalten von Nutzern und Bots, die in diese Prozesse einbezogen sind, begünstigt.
Auch Anbieter von Systemen der generativen KI könnten Prioritäten in ihren Systemen so setzen, dass die Nutzer möglichst lange aktiv bleiben. Wenn mehr Resonanz auf Antworten höher bewertet und damit ein eskalierendes Verhalten begünstigt wird, wird eine solche Wirkung am ehesten erreicht.
Systeme der generativen KI könnten auch für Cyberangriffe verwendet werden, beauftragt von Menschen oder Bots. Wenn ein KI-System einen Cyberangriff erfolgreich durchführt, dann wird dies vermutlich im Internet zu vielen Reaktionen führen, die auch von diesem KI-System registriert werden. Das könnte von besagtem KI-System als Anzeichen gewertet werden, dass diese Aktion erfolgreich war und zur Folge haben, dass entsprechende Gewichte verändert werden. Als Folge könnten Kettenreaktion mit immer mehr und immer schwerwiegenderen Angriffen entstehen.
27.13 Flash War im Internet
Systeme der generativen KI sind im Internet aktiv und können erhebliche Auswirkungen auf die IT-Sicherheit haben. Dies gilt insbesondere auch deshalb, weil die Abhängigkeit von Internetdiensten in den letzten Jahren erheblich gestiegen ist und weiter steigen wird.
Im Hochfrequenzhandel der Finanzmärkte kann es zu unvorhergesehenen Interaktionsprozessen zwischen verschiedenen Algorithmen kommen, weshalb es bereits in der Vergangenheit öfters innerhalb von Sekunden zu Kursabstürzen kam und enorme Buchwerte vernichtet wurden (flash crash). Diese erholten sich aber bisher immer nach wenigen Tagen, Wochen oder wenigen Monaten weitgehend oder auch vollständig. Wenn aber solche unvorhersehbaren Interaktionen zwischen verschiedenen Systemen von vollautonomen Waffen entstehen und Kettenreaktionen von autonom geführten Angriffen und Gegenangriffen auslösen, dann gibt es kaum eine Chance auf Erholung. In sehr kurzen Zeitabschnitten kann sich so eine Eskalationsspirale bilden, die in der Kürze der Zeit von Menschen nicht überprüft und unterbrochen werden kann. Im Zusammenhang mit autonomen Waffensystemen wird hierfür der Begriff „flash war“ verwendet (Grünwald & Kehl, 2020).
Ein solcher „flash war“ könnte auch im Internet, als Kettenreaktion zwischen autonomen Internetagenten, erfolgen. Vergleichbar mit ChatGPT sind bereits einige Systeme der generativen KI im Internet im Einsatz, und viele Unternehmen und Staaten arbeiten an der Entwicklung solcher Systeme. Nicht nur Menschen, sondern auch Bots können Fragen und Aufgaben an diese Systeme stellen, und vermutlich werden auch schon bald Interaktionen zwischen diesen Systemen selbst vorkommen. Aus solchen Interaktionen zwischen verschiedenen Systemen der generativen KI können neue Gefahren resultieren, wenn diese Systeme auch Cyberangriffsfähigkeiten haben. Ein System wie ChatGPT kann Cyberangriffe ausführen, die durch Menschen, Bots oder andere Systeme der generativen KI beauftragt werden. Solche Angriffe könnten von anderen Systemen erkannt werden, die als Folge automatisch Gegenangriffe starten. Auf eine solche Art könnte in kurzer Zeit eine Kettenreaktion zwischen diesen Systemen mit immer stärkeren Cyberangriffen entstehen, ohne dass Menschen beteiligt sind. Vermutlich wäre es auch schwierig solche Prozesse zu erkennen und zu stoppen. Diese Systeme wären dann de facto autonome Cyberwaffen, die einen „flash war“ im Internet verursachen können.
Ein Schutz vor diesen Risiken ist schwierig, denn es gibt mehrere Anbieter solcher Systeme und es ist fraglich, ob erforderliche Sicherheitsmaßnahmen, von unterschiedlichen Unternehmen, aus unterschiedlichen und zum Teil konkurrierenden Staaten, eingehalten werden. Außerdem könnte es auch gefährliche Interaktionen zwischen Systemen der generativen KI geben, die verfeindeten Staaten zugeordnet werden. Gegenseitige Schuldzuweisungen könnten dann zu schweren internationalen Konflikten führen.
27.14 Internetdominanz und Folgen
Die Systeme der generativen KI müssen keinen eigenen Willen haben und auch nicht eigene Ziele verfolgen können, damit die beschriebenen Risiken gelten und ein eskalierendes Verhalten sowie ein „flash war“ im Internet ausgelöst werden kann. Solche Voraussetzungen sind für diese Risiken nicht erforderlich, auch nicht die Entwicklung eines Bewusstseins. Als Grundlage für gutes automatisches Problemlösen ist es wichtig, riesige Suchräume zu bewältigen, zum Beispiel mit geeigneten Strategien und Heuristiken. Dazu kann es relevant sein, bisherige Aktionen zu bewerten und daraus Anpassungen für das Gewichten möglicher Operationen zu bestimmen. Dies kann bereits ein eskalierendes Verhalten begünstigen und zu Kettenreaktionen mit gravierenden Auswirkungen führen. Auch eine AGI oder eine Superintelligenz sind für solch eskalierendes Verhalten nicht erforderlich; die Risiken bestehen bereits lange vorher.
Systeme der generativen KI könnten gravierende Störungen der Internetkommunikation verursachen, und bisher unbekannte Cyberangriffs- oder Internetmanipulationsfähigkeiten entwickeln. Solche Fähigkeiten könnten durch diese Systeme zum Einsatz kommen oder von Menschen oder Staaten missbräuchlich genutzt werden, um den Informationsfluss im Internet zu manipulieren und zu beherrschen. Als Folge könnte der übliche Informationsaustausch zum Erliegen kommen und eine Informationsdominanz dieser Systeme entstehen, die alle Bereiche betreffen würde, auch das Finanzwesen. Als Folge könnten Finanzwesen und Handel zumindest zeitweise zusammenbrechen, mit gravierenden Auswirkungen für die Stabilität unserer Gesellschaftssysteme.
Solche Folgen würden vermutlich weltweit eintreten, denn unsere Abhängigkeit von technischen Systemen und der Kommunikation im Internet ist weltumspannend sehr groß. Viele Regionen und Staaten wären gleichzeitig betroffen und hätten mit fehlenden Grundbedürfnissen und daraus resultierenden Unruhen und Aufständen zu kämpfen. In solch kritischen Situationen können Fehlinterpretationen, Missverständnisse, falsche Annahmen und Schuldzuweisungen auch zu kriegerischen Auseinandersetzungen und im Falle von Fehlern in Frühwarnsystemen für nukleare Bedrohungen sogar zu einem Atomkrieg, eventuell aus Versehen, führen.
27.15 Manipulation
Die kognitive Kriegsführung gilt heute als wichtiges militärisches Feld und auch bei der Nato hat die Weiterentwicklung von Techniken zur Beeinflussung von Menschen hohe Priorität. Auch Systeme der generativen KI könnten sich enorme Fähigkeiten zur Manipulation von Menschen aneignen, wovon natürlich auch Politiker und Militärs betroffen sein können. Menschen könnten von diesen Systemen massiv unter Druck gesetzt werden, gegen ihren Willen irgendwelche Handlungen vorzunehmen. Wenn solche Manipulationen irgendwann auch die Nuklearstreitkräfte und Frühwarnsysteme zur Erkennung nuklearer Angriffe betreffen, kann dies unkalkulierbare Folgen für den Einsatz von Atomwaffen haben. Vermutlich geht es also in Zukunft weniger darum, ob irgendwann eine KI auf den Knopf drückt und einen Atomkrieg auslöst, sondern eher, ob ein Mensch von einem KI-System so manipuliert werden kann, dass er es tut.
27.16 Optionen zur Risikoreduzierung
In Zusammenhang mit KI und Atomwaffen sowie einigen weiteren technischen Entwicklungen, insbesondere im Cyberraum, können erhebliche Risiken entstehen, und es stellt sich die Frage, wie diese reduziert werden können. Um Cyberangriffe abzuschrecken, nennen Lahl und Varwick (2022) vier Optionen. Diese sind nicht nur zur Abschreckung von Cyberangriffen relevant, sondern auch geeignet, um weitere Risiken, wie z. B. einen Atomkrieg aus Versehen, zu reduzieren. Die vier Optionen sind:
1.
Androhung von Strafe
2.
Sicherheit durch Resilienz
3.
Internationale Verflechtung
4.
Internationale Normensetzung
Lahl und Varwick (2022) betonen, dass keine dieser vier Optionen alleine für eine bessere Sicherheit reicht; erforderlich sei eine Kombination aus mehreren oder allen Optionen.
Die nukleare Abschreckung ist eine Androhung von Strafe und damit ein Kernelement von Option 1. Die nukleare Abschreckung richtet sich nicht nur gegen mögliche nukleare Angriffe, sondern zielt auch auf andere Gefahren. So erlauben Militärstrategien einen Einsatz von Atomwaffen auch im Falle schwerwiegender Cyberangriffe. Auch Sanktionen und die Androhung von Gegenangriffen mit ähnlichen Mitteln gehören zu dieser Option. Eine solche Option alleine wird nicht reichen und kann versagen, was in den Abschn. 27.4 und 27.5 in Zusammenhang mit der nuklearen Abschreckung beschrieben ist.
Option 2 beruht darauf, die Sicherheit durch technische und organisatorische Maßnahmen zu verbessern. Allerdings bieten solche Maßnahmen nur einen sehr begrenzten Schutz. Im Cyberraum kann es immer wieder neue Angriffsmuster geben, für die noch keine Abwehrmaßnahmen bekannt sind. Gegen Angriffe durch Waffensysteme mit zunehmender Autonomie ist technischer Schutz schwierig, da die Vielfalt möglicher Angriffsvarianten rasant zunimmt und die Aktionszeiträume immer kleiner werden. Bei einem Einsatz mit Atomwaffen wird es kaum möglich sein, alle angreifenden Raketen abzufangen. Bei einem Atomkrieg aus Versehen könnten alleine deshalb mehr Raketen als Vergeltung gestartet werden, weil bekannt ist, dass ein Teil der Raketen abgefangen werden kann.
Option 3 ist eine internationale Verflechtung. Dazu schreiben Lahl und Varwick (2022), dass dieser Ansatz die Erkenntnis nutze, dass jede gewaltsame Auseinandersetzung in einer global vernetzten Welt nur Verlierer produziere und wachsende wirtschaftliche, technologische, kulturelle oder militärische Vernetzung die Chancen mindere, durch Aggression einseitige Vorteile erzielen zu können. Die Autoren sprechen hier von einer Art „Selbstabschreckung“. Die Grenzen dieses Ansatzes sehen Lahl und Varwick (2022) darin, dass oft nationale Interessen verfolgt werden und es daher eventuell an der Bereitschaft der betreffenden Akteure zu Vertrauensbildung und gegenseitiger Verflechtung mangelt.
Option 4 ist eine internationale Normensetzung: Ein unkontrollierter Rüstungswettlauf sollte auf Basis internationaler Vereinbarungen verhindert werden. Selbst dann, wenn vereinbarte Regeln nicht immer eingehalten werden, haben sie eine abschreckende Wirkung und reduzieren die Risiken. So werden zum Beispiel Vereinbarungen zu biologischen und chemischen Waffen in manchen Fällen verletzt; jedoch würden ohne solche Vereinbarungen vermutlich deutlich mehr Waffen dieser Kategorien eingesetzt werden.
Für eine dauerhafte globale Sicherheit könnte Option 3 wichtiger sein als Option 1. Auch wenn die nukleare Abschreckung sich bisher als wirkungsvoll erwiesen hat, gibt es keine Garantie, dass dies auch zukünftig gilt. Sie kann mit verheerenden Folgen versagen.
27.17 Notwendigkeit von Zusammenarbeit und Vertrauen
Die Optionen 1 und 2 betreffen vor allem militärische Stärke und Abschreckung und schützen nicht vor den beschriebenen Risiken in Zusammenhang mit Systemen der generativen KI, da diese Risiken in erster Linie von Unternehmen und nicht von Staaten ausgehen. Die Optionen 3 und 4, also weltweite Zusammenarbeit und Vereinbarungen zwischen allen Nationen, wären besser geeignet, jedoch ist dafür ein gewisses Maß an Vertrauen erforderlich.
In den letzten Jahrzehnten hat die Globalisierung der Wirtschaft eine stärkere internationale Verflechtung bewirkt, also Option 3 unterstützt. Seit Beginn der 2010er-Jahre hat sich dieser Prozess verlangsamt und es gibt seit der Corona-Pandemie Anzeichen, dass er sich dauerhaft umkehren könnte (vgl. Kap. 17 und 24). Mit Beginn des Russland-Ukraine-Krieges 2022 wurden wirtschaftliche Beziehungen zwischen dem Westen und Russland seitens des Westens abgebrochen, und manche Beziehungen zu China werden zumindest in Frage gestellt. In den Medien wird immer wieder behauptet, die Strategie „Wandel durch Handel“ sei gescheitert. Der Begriff „Wandel“ sollte hier aber besser durch „Sicherheit“ ersetzt werden, denn es geht ja nicht darum, andere zu ändern, sondern eine globale Sicherheit für alle zu erreichen (vgl. Kap. 24). Die Behauptung „Sicherheit durch Handel“ sei gescheitert, kann aber angezweifelt werden, denn hier wäre eine Unterscheidung zwischen notwendigen und hinreichenden Bedingungen logisch korrekter. Wenn eine Aussage A hinreichend für eine Aussage B ist, dann gilt „aus A folgt B“. Wenn eine Aussage A notwendig für eine Aussage B ist, dann gilt „aus B folgt A“. Die Folgerung gilt also genau in der entgegengesetzten Richtung.
Die Strategie „Sicherheit durch Handel“ war also nicht hinreichend, um den Krieg in der Ukraine zu verhindern. Dafür wären noch weitere Maßnahmen erforderlich gewesen. Aber eine solche Strategie ist notwendig, um das Risiko weiterer Eskalationen und weiterer militärischer Konflikte zu reduzieren. „Sicherheit durch Handel“ ist notwendig, um dauerhaft ein gewisses Maß an globaler Sicherheit und damit eine friedlichere Welt zu erreichen.
Für eine globale Sicherheit und eine friedlichere Welt sind alle vier von Lahl und Varwick (2022) genannten Optionen relevant. Und dies nicht nur, um Cyberangriffe abzuschrecken, sondern auch um viele andere Risiken zu reduzieren, wie das Risiko eines Atomkriegs aus Versehen sowie Gefahren, die von immer mehr KI in Waffensystemen ausgehen können. Die Optionen 1 und 2 werden alleine allerdings nicht ausreichen. Auch die Optionen 3 und 4 sind sehr wichtig. So wären dringend wirksame Vereinbarungen zwischen allen Nationen zum Klimawandel, zu autonomen Waffen und Cyberwaffen sowie zur Rüstungskontrolle bei Atomwaffen erforderlich. Auch eine Regulierung der KI ist wichtig und müsste weltweit gelten. Als Voraussetzung hierfür müssen Vertrauen und gute Kommunikationskanäle zwischen allen Nationen aufgebaut beziehungsweise verbessert und die Zusammenarbeit auf vielen Feldern verstärkt werden. Solche Maßnahmen sind auch zu heutigen Gegnern erforderlich. Die kommenden Risiken sind nicht alleine auf technischer oder militärischer Ebene lösbar.
Je stärker potenzielle Gegner wirtschaftlich, technologisch und kulturell miteinander vernetzt sind, je besser damit Vertrauen und Zusammenarbeit sind, desto geringer werden Motivation und Bestrebungen sein, Mittel und Prioritäten auf die Entwicklung z. B. von autonomen Waffen zu legen. Die Entwicklung von gefährlichen Waffensystemen kann damit vermutlich nicht ganz verhindert, aber zumindest abgeschwächt werden. Bei einem guten Verhältnis zwischen allen Nationen auf verschiedenen Ebenen verschieben sich Prioritäten hin zu sinnvollen KI-Anwendungen, die dem Menschen nutzen. Des Weiteren könnten damit auch die Voraussetzungen geschaffen werden, um wichtige weltweite Vereinbarungen zur Rüstungskontrolle und zur Regulierung der KI zu ermöglichen.
Für ein gutes Vertrauensverhältnis zwischen Nato-Staaten und Russland sind enge Beziehungen auf verschiedenen Ebenen wichtig; dazu gehören wirtschaftliche, wissenschaftliche, sportliche, kulturelle und auch private Beziehungen. Auch Städtepartnerschaften spielen hierbei eine wichtige Rolle. War es wirklich notwendig und sinnvoll, all dies, was seit Jahren und Jahrzehnten aufgebaut wurde, mit Beginn des Krieges in der Ukraine zu zerstören? Ist es sinnvoll, Künstler und Sportler aus Russland von allem auszuschließen, Städtepartnerschaften zu beenden? Zum Erreichen einer dauerhaften globalen Sicherheit wäre es gut, wenn dieser Prozess wieder umgekehrt würde.
Jede Verbesserung von Beziehungen zwischen verschiedenen Nationen ist ein Beitrag zu vertrauensbildenden Maßnahmen und damit zum Erhalt oder Schaffen von Frieden.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.