Activate our intelligent search to find suitable subject content or patents.
Select sections of text to find matching patents with Artificial Intelligence. powered by
Select sections of text to find additional relevant content using AI-assisted search. powered by (Link opens in a new window)
Zusammenfassung
22.1 Bezug zur VDW-Stellungnahme zu den Asilomar-Prinzipien
Im April 2018 hat die Studiengruppe „Technikfolgenabschätzung der Digitalisierung“ der Vereinigung Deutscher Wissenschaftler e.V. (VDW) unter meiner Leitung eine erste Stellungnahme zu ethischen, politischen und rechtlichen Fragen der Erforschung, Entwicklung und Anwendung Künstlicher Intelligenz (KI) vorgelegt, welche die am 06.01.2017 beschlossenen Asilomar-Prinzipien zu Künstlicher Intelligenz (FLI, 2017) kommentiert und eigene Schlüsse aus Sicht der VDW zieht.1 In unserer Stellungnahme teilen wir den Tenor der Asilomar-Prinzipien (AP) und messen den Herausforderungen, die die mögliche Entwicklung einer allgemeinen oder starken Künstlichen Intelligenz mit sich bringen könnte, ein besonderes Gewicht bei. Dieses Kapitel basiert im Wesentlichen auf dem damaligen VDW Policy Paper, reflektiert essenzielle Aussagen dieses Papiers aus heutiger Sicht und erweitert dieses um neue Erkenntnisse und Entwicklungen. Während aber jenes ein Produkt des damaligen Autorenteams unserer Studiengruppe war, gibt dieses Kapitel lediglich meine heutige Sicht auf das Thema und auf unsere Stellungnahme wieder.
Gefahrenabwehr bedeutet, präventiv zu handeln, noch bevor gefährdende Entwicklungen in eine unumkehrbare Dynamik geraten, die eine wirksame Gegensteuerung nicht mehr zulässt oder zumindest einen hohen Aufwand und entsprechende Kosten erfordert. Insbesondere die allgegenwärtigen Folgen von Pfadabhängigkeiten erfordern bei potenziell gefährlichen und kostenintensiven Technologieentwicklungen die frühzeitige Etablierung wirksamer Kontrollmechanismen (Link, 2021). Die Weiterentwicklung von KI ist kosten- und vor allem energieintensiv (s. Kap. 7) und erzeugt sehr unterschiedliche und in ihrem Ausmaß und ihren Intensitäten zum Teil unbekannte Gefährdungen. Dies wurde bereits 2016/2017 von führenden KI-Experten erkannt und hat u. a. zur Formulierung der Asilomar-Prinzipien geführt.
Advertisement
Wir gingen in unserer Stellungnahme davon aus, dass sich Forschung, Entwicklung und Anwendung von KI exponentiell entwickelten (BITKOM, 2017; EFI, 2018), wobei die USA und China führend wären (EFI, 2018, S. 68 ff.).2 Wir stellten fest, dass KI-Anwendungen bereits unser Sozial- und Kommunikationsverhalten und unsere Alltagskultur verändert haben und gesellschaftliche Systeme bedrohen, z. B. durch Social Scoring, Fake News, Fake Science, Wahlbeeinflussungen (Eberle, 2015; Henk, 2014).3 Die Schaffung starker KI sahen wir als (in nicht vorhersehbarer Zukunft) wahrscheinlich an.4 Mensch und Maschine würden sich zunehmend zueinander entgrenzen, und Technik würde Funktionen und Aufgaben von Menschen autonom übernehmen. Neurologisch-kognitiv wirkende Komponenten würden in Menschen eingebaut (sog. Enhancements), und es würde eine Kopplung von menschlichen Gehirnen und KI-Systemen erfolgen (TAB, 2016; Schmiedchen, 2021). Diese fortschreitende Entgrenzung findet tatsächlich statt und hat starke ethische Implikationen (s. Kap. 17; Bauberger, 2021a, b; Schmiedchen, 2021).
Unsere Betrachtungen zu den Asilomar-Prinzipien fußten unter anderem auf Hans Jonas’ Verantwortungsethik (1979) als philosophischer Referenz, die auch dem europäischen Vorsorgeprinzip zugrunde liegt. Nach Jonas’ Ansatz der „Heuristik der Furcht“ ist bei jeder menschlichen Entscheidung zunächst von den potenziellen Folgen für die Zukunft auszugehen, die diese Entscheidung nach sich ziehen könnte. Jonas’ Motiv, „die Unversehrtheit seiner Welt [des Menschen] und seines Wesens gegen die Übergriffe seiner Macht zu bewahren“ (ebenda, S. 9) und sein Imperativ „Handle so, dass die Wirkungen deiner Handlung verträglich sind mit der Permanenz echten menschlichen Lebens auf Erden“ (ebenda, S. 35) sind ein hilfreicher Maßstab auch für die Bewertung von KI.
22.2 Kritische Reflexion der Asilomar-Prinzipien zu KI
Das in Boston (USA) gegründete Future of Life Institute (FLI) beschäftigt sich seit März 2014 mit möglichen existenziellen Gefahren weiterer Technikentwicklung für die Menschheit. Dabei stehen die Arbeiten zur Risikominderung von KI ausdrücklich im Mittelpunkt der Institutsarbeit.5 Im Januar 2017 organisierte das FLI in Asilomar (Kalifornien) die Tagung „Beneficial AI“ mit knapp 1000 Teilnehmenden, darunter über 100 der weltweit führenden KI-Forscher und -Unternehmer, um über die Auswirkungen von KI zu diskutieren. Die Asilomar AI Principles (AP) sind ein Ergebnis dieser Tagung und beinhalten 23 Prinzipien zur freiwilligen Selbstverpflichtung für Forschung, Entwicklung und Anwendung von KI, um dem „major change […] across every segment of society“ (FLI, 2017) gerecht zu werden. 5720 Personen haben bis heute die Asilomar-Prinzipien unterschrieben, darunter über 1000 unmittelbar an Forschung und Entwicklung von KI beteiligte Wissenschaftler (FLI, 2017).6
Die Asilomar-Prinzipien greifen ethische Fragen der KI auf und beschreiben moralisch hergeleitete Best Practices in Bezug auf Forschung und Entwicklung (F&E) von KI, wobei sie einen großen Interpretationsspielraum zulassen. Die Prinzipien verwenden dabei zahlreiche unbestimmte Rechtsbegriffe, die definiert werden müssten, sofern sie zu einem handhabbaren Instrument weiterentwickelt werden sollen. Damit verbunden ist die Frage nach dem Definitionsrecht. Viele gewählte Formulierungen scheinen von einem herrschaftsfreien, kooperativen Zusammenarbeiten der mit F&E von KI betrauten Wissenschaftlern auszugehen bzw. davon, dass ein solches möglich ist, sofern der gute Wille hierzu bei den Forschern vorhanden ist. Die AP haben eine Reihe anderer Versuche zumindest indirekt mit initiiert, ethische Fragestellungen zu KI umfassend anzusprechen und angemessene Reaktionen einzufordern. So hat die Universität von Montreal bereits 2018 die Montreal Responsible AI Prinzipien beschlossen (Université de Montréal, 2018). Auch die OECD hat 2019 eine Reihe von KI-Prinzipien verabschiedet, die aber lediglich von 10 OECD-Ländern formal angenommen wurden (OECD, 2019).7 Diese wiederum wurden von den G20 unter japanischer Präsidentschaft auf dem Osaka-Gipfel übernommen, aber lediglich von Argentinien und Brasilien bestätigt (MOFA, 2019). In der Zwischenzeit hat die OECD ihre Prinzipien überarbeitet und angepasst (Agustinoy, 2024). Im Mai 2024 haben Geoffrey Hinton, Yuval Harari und andere Wissenschaftler die Warnungen des offenen Briefes führender KI-Wissenschaftler und Unternehmer von 2023 (FLI, 2024) in einem Science-Artikel eindringlich wiederholt (Hinton et al., 2024). Selbst Ray Kurzweil scheint mittlerweile einige seiner posthumanistischen Träume zu relativieren und betont den Wert der Asilomar-Prinzipien sowie die Notwendigkeit menschlicher Steuerung (Kurzweil, 2024, S. 320).
Advertisement
Die Asilomar-Prinzipien sind in die Abschnitte Forschungsfragen, Ethik und Werte sowie längerfristige Probleme gegliedert.
22.2.1 Forschungsfragen
Ein fundamentaler Kritikpunkt an den Asilomar-Prinzipien ist, dass diese fordern, dass nur „nützliche“ KI entsteht, ohne sich mit der Frage auseinanderzusetzen, was nützlich eigentlich bedeuten soll. Der im Prinzip Nr. 1 konstruierte Zusammenhang zwischen directed und beneficial ist beispielsweise unlogisch, da beides unterschiedliche Kategorien sind.8 Etwas kann ungeleitet oder unkontrolliert, aber dennoch nützlich sein, so wie es sehr vieles gibt, das kontrolliert entsteht, aber unnütz oder schädlich ist. Die Vorstellung, etwas kontrolliert und nur nützlich in die Welt bringen zu können, ist darüber hinaus von Hybris geprägt und überschätzt strukturell menschliche Möglichkeiten bzw. übersieht objektive Grenzen von Kontrollfähigkeit. Auch ist die nirgendwo diskutierte und damit potenziell unreflektierte Übernahme einer utilitaristischen Ethik als Bewertungsmaßstab problematisch. Wer legt warum wie fest, was eine nützliche KI ist? Angesichts der tatsächlichen ökonomischen und politischen Machtverhältnisse hinsichtlich der Entwicklung von KI impliziert eine solche Aussage, dass die jeweils Mächtigen und die von ihnen bezahlten KI-Experten festlegen, was nützlich ist. Was aber, wenn diese Gruppe der „KI-Mächtigen“ sich untereinander erbittert bekämpft? Eine Überspitzung macht hier Tragweite und Absurdität deutlich. Welche KI ist nützlich, um
-
die Ziele der Kommunistischen Partei Chinas zu erreichen?
-
woke, transhumanistische Hippie-Regenbogenträume weltweit zu fördern?
-
jüdisch-christliche, islamische oder hinduistische Werte gegen den nihilistisch-säkularen Liberalismus durchzusetzen?
Unterstellen wir, dass all diese Ideenwettbewerber unabhängig von ihren Selbstbildern und öffentlichen Selbstdarstellungen nach Macht und Profit streben, dann wird die Situation schnell ungemütlich. Kap. 24 verdeutlicht den Umfang, den dieser Konkurrenzkampf bereits heute angenommen hat.
Auch die politische und ökonomische Naivität der Prinzipien Nr. 4 und 5, die von einer Kultur von Zusammenarbeit, Vertrauen und Transparenz bei Forschern und Entwicklern von KI ausgehen, mutet nicht erst aus heutiger Sicht bizarr an.9 Vertrauensvolle Zusammenarbeit wird in den meisten Institutionen nur insoweit positiv gesehen, als es der Zielerreichung dient. Wenn aber im Wettbewerb stehende oder sogar gegensätzliche institutionelle Interessen aufeinanderstoßen, wie z. B. Unternehmensgewinn oder nationale Sicherheit (NSTC, 2016), müssten Forscher zur Einhaltung der Prinzipien Nr. 4 und 5 bereit sein, (teils starke) negative Sanktionen persönlich konkret zu ertragen. Doch stehen die AP mit ihren Forderungen nicht alleine da: In der Studie „The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation“ (NSTC, 2016) fordern 26 führende KI-Entwickler von allen Forschern und Entwicklern als nicht delegierbare Aufgabe, die Folgen ihrer Arbeiten nicht nur vorzudenken, sondern auch alle relevanten Akteure aktiv vor negativen Konsequenzen zu warnen und den Kreis derer, die informiert mitagieren und entscheiden sollen, beständig zu erweitern. Dies legt auch die Grundlage des offenen Briefes, den führende KI-Experten 2023 vorgelegt haben. In diesem warnen sie vor dem Hintergrund der Entwicklung großer Sprachmodelle und vor allem der sichtbaren Ergebnisse von ChatGPT4 massiv vor den Gefahren weiterer Entwicklungen hin zu einer allgemeinen (oder starken) KI und fordern ein sechsmonatiges Moratorium für weitergehende Forschungsarbeiten (FLI, 2024). Dieser mittlerweile von über 33.700 Menschen unterzeichnete Brief hat weltweit für Aufsehen gesorgt.
Ein weiteres seit den AP diskutiertes Dilemma besteht darin, dass ein offener KI-Diskurs bei Offenlegung der zugrunde liegenden Algorithmen die Gefahr für missbräuchliche Nutzungen erhöht (Brundage et al., 2018).
Auf einer grundlegenderen Ebene ist anzumerken, dass eine hypothetische dystopische Sicht, die im Sinne von Jonas’ Konzeption der „Fernwirkung der Technik“ mitdenkt, dass KI sowohl (unsichtbare) Kollateralschäden als auch unvorhersehbare negative Auswirkungen auf die Zukunft verursachen kann. Dies muss ebenso wissenschaftlich berücksichtigt werden wie die Tatsache, dass ein positiver Zukunftsentwurf („Wie wir leben wollen“) zur menschenzentrierten Nutzung von KI gesellschaftlich erst noch zu verhandeln ist (Schmiedchen et al., Hrsg., 2021). Symptomatisch für die fehlende Reflektion der AP auf dieser grundsätzlichen Ebene ist der dort formulierte Grundsatz: „Teams developing AI systems should actively cooperate to avoid cornercutting on safety standards.“ Auch wenn es mit der Verabschiedung der KI-Verordnung der EU 2024 die ersten normierten Safety-Standards zur Risikoklassifizerung gibt (s. Kap. 23), so ist doch eine wirksame Regulierung von KI allein deshalb schwierig, weil die technologische Entwicklung wesentlich schneller voranschreitet als jedweder demokratische Prozess der Normgebung reagieren kann, um einen Rahmen zu setzen und wirksame, operative Vorgaben zu machen (Cultural Lag) (Brundage et al., 2018).
22.2.2 Ethik und Werte
Die Prinzipien Nr. 6 und 7 behandeln den Anspruch von Fehlertransparenz und Betriebssicherheit und fordern umfassenden Sicherheitsschutz während der gesamten Betriebsdauer. Wollte man dies ernsthaft umsetzen, müsste man, um Fehlfunktionen lückenlos zu dokumentieren und die Erfolgschancen für Reparaturen zu optimieren, Konstruktionsangaben und Quellcodes ebenso öffentlich zugänglich speichern wie auch die entsprechenden Trainingsdaten und Trainingsprozesse. Dies dürfte meist schwer umsetzbar sein, da es sich hier zumindest teilweise um Informationen handelt, die von den betroffenen Unternehmen als geschützte Geschäftsgeheimnisse deklariert werden. Darüber hinaus macht die hohe Komplexität von Codes und der große Umfang verwendeter Daten es auch bei völliger Offenlegung noch schwierig, die Quellen von Fehlfunktionen zu entdecken. Hier liegt ein wesentlicher Bedarf für wirksame gesetzliche Regelungen, aber auch für Begleitforschung, wie das Risiko der Geheimhaltung von Quellcodes verringert werden kann. Die heutige Rechtslage erlaubt die Rekonstruktion von Quellcodes aus dem öffentlich zugänglichen kompilierten Code (Reverse Engineering), wenn auch oft, wie in der EU, auf bestimmte Fälle beschränkt. Das tieferliegende Problem bei der Offenlegung ist jedoch das damit verbundene Risiko der nicht kontrollierten Entwicklung von KI außerhalb bekannter, gesellschaftlich überwachter Strukturen mit den damit verbundenen Gefahren (z. B. Terrorismus und organisierte Kriminalität). Dennoch bleibt die Forderung nach der Einführung von Auskunftsrechten sowie nach Kennzeichnungs- und Publikationspflichten von hoher Bedeutung, so wie sie beispielsweise durch den Verbraucherzentrale Bundesverband gestellt wird (VB, 2017).
Prinzip Nr. 8 befasst sich mit dem Einsatz von KI in gerichtlichen Verfahren zur Effizienzerhöhung, insbesondere bei umfangreichen Verfahren sowie zur Unterstützung „besserer“ Entscheidungen. Unmittelbar in Prozessen der juristischen Entscheidungsfindung kann KI eingesetzt werden, um den Sachverhalt zu strukturieren, einen Vorschlag für die Entscheidung zu erstellen, Rückfall- und Sozialprognosen zu geben oder im Extremfall eine Entscheidung autonom zu treffen. All das ist in den meisten Staaten nach derzeitiger Rechtslage nur in sehr engen Grenzen legal. Ursache dafür dürfte sein, dass der Einsatz von KI bei der Bewertung und Entscheidung in gerichtlichen Verfahren grundsätzlich ethisch bedenklich ist. Insbesondere die Grenzziehung bei der Unterstellung von Kausalitätszusammenhängen sowie die Definition der Grenzen des freien Willens sind für eine Maschine mehr als nur eine Herausforderung – es ist einer Maschine nicht möglich. In den USA ist bereits eine Einstufungssoftware zur Rückfall- und Sozialprognose im Einsatz, bei der erste Evaluationen zeigen, dass die Gefahr besteht, dass sie zu Diskriminierungen aufgrund der Hautfarbe führen kann (Angwin et al., 2016). Angesichts der tatsächlichen Verbrechensstatistiken wird nun kontrovers diskutiert, ob es sich um rassistische Diskriminierung oder um einen objektiven Spiegel der Gefährderstruktur handelt.
Ein mögliches, breites Einsatzgebiet der KI ist das Erstellen von Sachverständigengutachten (z. B. zur Glaubwürdigkeit von Zeugen) oder von Nachweisen zur Begründung des Bestehens oder Nichtbestehens eines Anspruchs. Hier gilt, dass der Einsatz von KI als Beweismittel ein Mindestmaß an nachweisbarem, wissenschaftlich fundiertem Vorgehen, Transparenz und Nachvollziehbarkeit voraussetzt. Dabei ist die Frage der Transparenz im Hinblick auf die eingeflossenen Daten und der zugrunde gelegten Lernalgorithmen und Regeln zentral, da im Ergebnis unmittelbar Sachverhaltsfeststellungen durch die von der KI gewonnenen Erkenntnisse beeinflusst werden. Jedweder juristische KI-Einsatz erfordert deshalb zwingend gesetzliche Regelungen, die in allen Widerspruchs-/Berufungs-/Revisionsfällen eine Überprüfung durch höhere, rein menschliche Instanzen sowie umfassende einschlägige Schulungen des juristischen Personals voraussetzen.
Prinzip Nr. 9 fordert, dass KI-Konstrukteure bei fortgeschrittener KI (Advanced AI Systems) für beabsichtigte und unbeabsichtigte Folgen Verantwortung übernehmen sollen. Die Formulierung impliziert, dass Systeme, die weniger advanced sind, dieser Verantwortung nicht unterliegen.10 Die Frage nach Verantwortlichkeit (d. h. auch nach Kausalitäten) gestaltet sich jedoch bei komplexen Systemen schwierig und wird bei globalisierten Systemen potenziert. Gesetzliche Regelungen zur Durchsetzung von Haftungsansprüchen (Liabilities) und hier insbesondere Regelungen zur Beweislast sind in kapitalistischen Wirtschaftssystemen das effizienteste Instrument, um Verantwortungen eindeutig und sanktionierbar zu klären. Zahlreiche Erfahrungen der letzten 40 Jahre, vor allem aus dem Umweltrecht, belegen dies. Die Frage, wer wann für welchen Schaden haftet, hat aber auch, beispielsweise über Strategien des Risikomanagements und erforderliche Due-Diligence-Prüfungen, Rückwirkungen bis auf die Ebene von Investitionsentscheidungen.
Prinzip Nr. 12 zum Recht auf persönlichen Datenschutz beschränkt dies auf Daten, die von den Nutzern generiert werden. Demgegenüber bleiben Daten außen vor, die über diese Nutzer gesammelt werden. Damit verbleibt der weitaus größte Teil der Daten außerhalb der Kontrolle derjenigen, über die diese Daten etwas aussagen. Mit Blick auf KI beinhaltet das auch personenrelevante Informationen, die die KI durch Assoziationen, Verknüpfung und Kombination von Daten erzeugt.11 Forderungen nach einem barrierearmen und unbeschränkten Zugriffsrecht auf alle personenbezogenen Daten setzen eine explizite, vorherige Zustimmung zur Erhebung und Vernetzung ebenso voraus wie Vollständigkeit, Transparenz und das Recht auf Löschung (das Recht, vergessen zu werden), sofern es hiergegen keine übergeordneten rechtlichen Gründe gibt (z. B. Verschleierung einer Straftat).
Der Schutz der Privatsphäre und personenbezogener Daten steht auch im Mittelpunkt von Prinzip Nr. 13, das ein Beschneiden menschlicher Rechte als zulässig erklärt, sofern dies nicht „unreasonably“ geschieht. Nur im Zusammenhang mit einer potenziellen Gefährdung anderer Grundwerte sei dies möglich. Auch hier bleiben die AP vage. In unserer Stellungnahme haben wir folgende Elemente für einen wirksamen Persönlichkeitsschutz benannt:
-
Privacy-by-Design bzw. auf diesem Konzept basierende Gestaltungsvarianten, die bereits die im technischen Designprozess inhärente Privatheit und Datenschutz effektiv berücksichtigen und technisch umsetzen bzw. ermöglichen
-
Opt-Out- und Opt-In-Optionen sollten grundsätzlich verpflichtend sein. Dies muss auch gerade die Verknüpfung von Daten beinhalten.
-
Die grundlegende Entscheidung über die Verwendung von Daten sollte beim einzelnen Menschen liegen. Dazu bedarf es einer klaren Regelung, die auch Big Data transparent für den Einzelnen nachvollziehbar gestaltet.
-
Freedom to Information (Informationsfreiheit, -zugangsfreiheit und -transparenz) sollte gesetzlich so ausgestaltet werden, dass auch verknüpfende Daten einschließlich der dahinterliegenden Algorithmen von den Sammlern der Daten bereitgestellt werden müssen.
-
Mittels des Haftungs- und Strafrechts sind ggf. Überwachungs- und Datensammlungen durch Dritte so auszugestalten, dass der Einzelne wirksamen rechtlichen Schutz davor bekommt.
Prinzip Nr. 18 warnt vor den Gefahren eines Wettrüstens mit tödlichen autonomen Waffensystemen (LAWS). Es fehlen aber klare Aussagen, wie ein Wettrüsten verhindert werden soll. Die Risiken von LAWS z. B. aufgrund des Fehlens ethischen Verhaltens und möglicher Fehlsteuerung werden nicht adressiert (Scott et al., 2018; Brundage et al., 2018). Darüber hinaus zeigt die Formulierung von Prinzip 18, dass selbst militärische Anwendungen von KI keinen „Verbotsreflex“ bei der KI-Entwickler-Community auslösen. Auch bleibt unberücksichtigt, dass aggressive Angriffe auf kritische Infrastruktur oder Wirtschaftsunternehmen bereits weit unter der Schwelle von LAWS eine schnell wachsende Bedrohung darstellen, da die Kosten für solche Einsätze beständig sinken und der Angreifer schwer ermittelbar ist (Brundage et al., 2018; Executive Office of the President, 2016, S. 42, Empfehlungen 22 und 23).
22.2.3 Längerfristige Probleme
Prinzip Nr. 19 verdeutlicht, dass die AP keinerlei Grenzen für die weitere KI-Entwicklung sehen und solche auch nicht wollen. Wenn wir allerdings keine Kenntnis darüber haben, ob und wann eine allgemeine (starke) KI entsteht, und wir auch nicht wissen (können), ob und mit welchen Folgen diese gefährlich sein könnte, verlangt das EU-Vorsorgeprinzip, dass wir uns vorab als Gesellschaften, Staaten und internationale Staatengemeinschaft über rote Linien verständigen und diese wirksam durchsetzen müssen.
Dem entgegengesetzt führt Prinzip Nr. 20 aus, dass fortgeschrittene KI die Zukunft des Lebens auf dem Planeten Erde tiefgreifend verändern kann. Einer solchen fundamentalen Möglichkeit wird lediglich die Forderung entgegengestellt, „angemessen“ zu planen und zu entwickeln. „Angemessen“ ist ein unbestimmter Rechtsbegriff – wer bestimmt, was „angemessen“ ist und was die Maßstäbe sind? Das Hauptproblem dieses Prinzips ist, dass nicht gefragt wird, ob es ohne Vorlage zwingender Gründe überhaupt zulässig ist, tiefgreifende Veränderungen in der Geschichte des Lebens auf der Erde in Kauf zu nehmen, deren Richtung und Ausmaß Menschen nicht kennen und voraussehen können. Das Prinzip setzt demnach eine zentrale Erkenntnis der menschlichen Geschichte für die Zukunft fort, dass alles, was möglich ist, auch gemacht wird. Wenn also der Mensch fähig ist, eine allgemeine (starke) KI zu entwickeln, dann wird er das auch tun, einfach weil er es kann (vgl. Beck, 1986).
Prinzip Nr. 21 fordert darauf aufbauend Planungs- und Risikominderungsbemühungen, die den zu erwartenden Auswirkungen existenzieller Risiken und möglicher Katastrophen angemessen sind. Nun sind „Bemühungen“ aber nicht gleichbedeutend mit Erfolg, so dass die Formulierung besagt, dass diese Bemühungen zwar im Umfang dem Risiko angemessen sein müssen, aber in letzter Konsequenz auch scheitern können.
Im Gegensatz zu Prinzip Nr. 21 ist die Forderung nach strikten Kontroll- und Sicherheitsmaßnahmen im Prinzip Nr. 22 für sich selbstverbessernde KI angemessen. Die Möglichkeit eines generellen Verbots wird aber auch hier nicht erwogen. Doch selbst ein offizieller Bann könnte nicht verhindern, dass irgendwo auf der Welt Menschen um ihres Vorteils willen diesen Bann brechen würden, um z. B. wirtschaftliche, politische, ideologische oder religiöse Macht zu erlangen.
Im Prinzip Nr. 23 wird direkt von einer „Superintelligenz“ gesprochen, die „im Dienste weitverbreiteter ethischer Ideale der gesamten Menschheit und nicht nur einem Staat oder einer Organisation dienen soll.“ Jedoch leben wir Menschen nicht in einer herrschaftsfreien Weltgesellschaft.
Hier stellt sich schließlich aus Sicht der VDW die Frage: Warum sollen wir die Erschaffung einer Superintelligenz zulassen wollen? Würden wir dann nicht zu Gläubigen einer posthumanistischen Technikreligion, die den Menschen als eine notwendige Zwischenstufe der Evolution hin zu höheren, digitalen Wesen begreift? (Harari, 2017, S. 497 ff.; Dotzauer, 2017; Kurzweil, 2024).
22.3 Fazit
Die Verfasser der Asilomar-Prinzipien und die VDW-Studiengruppe waren und sind sich einig, dass KI das Leben auf der Erde tiefgreifend verändert und dass von der Schaffung einer starken KI (früher oder später) auszugehen ist. Zumindest ansatzweise sind wir uns auch einig, dass starke KI ein wesentliches Gefahrenpotential für den weiteren Verlauf der Menschheitsgeschichte birgt. Die AP waren ein guter Ansatzpunkt für die Diskussionen in den letzten acht Jahren, wie das KI-Potential menschenzentriert genutzt werden kann. Da die Asilomar-Prinzipien aber auf Basis der Prämisse einer grundsätzlich zu begrüßenden, grenzenlosen Technologieentwicklung bzw. -anwendung und einer utilitaristischen Ethik entstanden sind, war ihr tatsächlicher Mehrwert in den Diskussionen und Verhandlungen der letzten Jahre begrenzt.
Allein der Umstand, dass die Annahme jedes einzelnen Asilomar-Prinzips 90 % Zustimmung der Konferenzteilnehmer erforderte, zeigt die Zielsetzung „So viel Technikentwicklung wie möglich und so viel Regulierung wie nötig.“ Folgte man dem EU-Vorsorgeprinzip, würde dem entgegengesetzt die Zulassung von technologischer Entwicklung bzw. Anwendung 90 % Zustimmung erfordern. Das könnte mit dafür ursächlich sein, warum die USA und die VR China Europa seit 2017 in der KI-Entwicklung immer weiter abgehängt haben (vgl. auch Kap. 24). Dies sollte in einer Welt, in der Luft keine und Digitales nur wenige Grenzen kennt, zumindest zu denken geben!
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.