Skip to main content
Top

22. Die Asilomar-Prinzipien aus heutiger Sicht

  • Open Access
  • 2026
  • OriginalPaper
  • Chapter
Published in:

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Dieses Kapitel fußt wesentlich auf einem 2018 veröffentlichten VDW Policy Paper zu den am 06.01.2017 beschlossenen Asilomar-Prinzipien zu Künstlicher Intelligenz. Das Kapitel reflektiert wesentliche dort gemachte Aussagen aus heutiger Sicht und ergänzt sie mit neueren Erkenntnissen und Entwicklungen. Dabei geht das Kapitel auf die wesentlichen Prinzipien zu Forschungsfragen, Ethik und Werten sowie auf längerfristige Gefahren durch die angenommene Entwicklung starker Künstlicher Intelligenz ein, wobei der Blickwinkel des Policy Papers beibehalten und das Vorsorgeprinzip als ein Bewertungsmaßstab genutzt wird.

22.1 Bezug zur VDW-Stellungnahme zu den Asilomar-Prinzipien

Im April 2018 hat die Studiengruppe „Technikfolgenabschätzung der Digitalisierung“ der Vereinigung Deutscher Wissenschaftler e.V. (VDW) unter meiner Leitung eine erste Stellungnahme zu ethischen, politischen und rechtlichen Fragen der Erforschung, Entwicklung und Anwendung Künstlicher Intelligenz (KI) vorgelegt, welche die am 06.01.2017 beschlossenen Asilomar-Prinzipien zu Künstlicher Intelligenz (FLI, 2017) kommentiert und eigene Schlüsse aus Sicht der VDW zieht.1 In unserer Stellungnahme teilen wir den Tenor der Asilomar-Prinzipien (AP) und messen den Herausforderungen, die die mögliche Entwicklung einer allgemeinen oder starken Künstlichen Intelligenz mit sich bringen könnte, ein besonderes Gewicht bei. Dieses Kapitel basiert im Wesentlichen auf dem damaligen VDW Policy Paper, reflektiert essenzielle Aussagen dieses Papiers aus heutiger Sicht und erweitert dieses um neue Erkenntnisse und Entwicklungen. Während aber jenes ein Produkt des damaligen Autorenteams unserer Studiengruppe war, gibt dieses Kapitel lediglich meine heutige Sicht auf das Thema und auf unsere Stellungnahme wieder.
Gefahrenabwehr bedeutet, präventiv zu handeln, noch bevor gefährdende Entwicklungen in eine unumkehrbare Dynamik geraten, die eine wirksame Gegensteuerung nicht mehr zulässt oder zumindest einen hohen Aufwand und entsprechende Kosten erfordert. Insbesondere die allgegenwärtigen Folgen von Pfadabhängigkeiten erfordern bei potenziell gefährlichen und kostenintensiven Technologieentwicklungen die frühzeitige Etablierung wirksamer Kontrollmechanismen (Link, 2021). Die Weiterentwicklung von KI ist kosten- und vor allem energieintensiv (s. Kap. 7) und erzeugt sehr unterschiedliche und in ihrem Ausmaß und ihren Intensitäten zum Teil unbekannte Gefährdungen. Dies wurde bereits 2016/2017 von führenden KI-Experten erkannt und hat u. a. zur Formulierung der Asilomar-Prinzipien geführt.
Wir gingen in unserer Stellungnahme davon aus, dass sich Forschung, Entwicklung und Anwendung von KI exponentiell entwickelten (BITKOM, 2017; EFI, 2018), wobei die USA und China führend wären (EFI, 2018, S. 68 ff.).2 Wir stellten fest, dass KI-Anwendungen bereits unser Sozial- und Kommunikationsverhalten und unsere Alltagskultur verändert haben und gesellschaftliche Systeme bedrohen, z. B. durch Social Scoring, Fake News, Fake Science, Wahlbeeinflussungen (Eberle, 2015; Henk, 2014).3 Die Schaffung starker KI sahen wir als (in nicht vorhersehbarer Zukunft) wahrscheinlich an.4 Mensch und Maschine würden sich zunehmend zueinander entgrenzen, und Technik würde Funktionen und Aufgaben von Menschen autonom übernehmen. Neurologisch-kognitiv wirkende Komponenten würden in Menschen eingebaut (sog. Enhancements), und es würde eine Kopplung von menschlichen Gehirnen und KI-Systemen erfolgen (TAB, 2016; Schmiedchen, 2021). Diese fortschreitende Entgrenzung findet tatsächlich statt und hat starke ethische Implikationen (s. Kap. 17; Bauberger, 2021a, b; Schmiedchen, 2021).
Unsere Betrachtungen zu den Asilomar-Prinzipien fußten unter anderem auf Hans Jonas’ Verantwortungsethik (1979) als philosophischer Referenz, die auch dem europäischen Vorsorgeprinzip zugrunde liegt. Nach Jonas’ Ansatz der „Heuristik der Furcht“ ist bei jeder menschlichen Entscheidung zunächst von den potenziellen Folgen für die Zukunft auszugehen, die diese Entscheidung nach sich ziehen könnte. Jonas’ Motiv, „die Unversehrtheit seiner Welt [des Menschen] und seines Wesens gegen die Übergriffe seiner Macht zu bewahren“ (ebenda, S. 9) und sein Imperativ „Handle so, dass die Wirkungen deiner Handlung verträglich sind mit der Permanenz echten menschlichen Lebens auf Erden“ (ebenda, S. 35) sind ein hilfreicher Maßstab auch für die Bewertung von KI.

22.2 Kritische Reflexion der Asilomar-Prinzipien zu KI

Das in Boston (USA) gegründete Future of Life Institute (FLI) beschäftigt sich seit März 2014 mit möglichen existenziellen Gefahren weiterer Technikentwicklung für die Menschheit. Dabei stehen die Arbeiten zur Risikominderung von KI ausdrücklich im Mittelpunkt der Institutsarbeit.5 Im Januar 2017 organisierte das FLI in Asilomar (Kalifornien) die Tagung „Beneficial AI“ mit knapp 1000 Teilnehmenden, darunter über 100 der weltweit führenden KI-Forscher und -Unternehmer, um über die Auswirkungen von KI zu diskutieren. Die Asilomar AI Principles (AP) sind ein Ergebnis dieser Tagung und beinhalten 23 Prinzipien zur freiwilligen Selbstverpflichtung für Forschung, Entwicklung und Anwendung von KI, um dem „major change […] across every segment of society“ (FLI, 2017) gerecht zu werden. 5720 Personen haben bis heute die Asilomar-Prinzipien unterschrieben, darunter über 1000 unmittelbar an Forschung und Entwicklung von KI beteiligte Wissenschaftler (FLI, 2017).6
Die Asilomar-Prinzipien greifen ethische Fragen der KI auf und beschreiben moralisch hergeleitete Best Practices in Bezug auf Forschung und Entwicklung (F&E) von KI, wobei sie einen großen Interpretationsspielraum zulassen. Die Prinzipien verwenden dabei zahlreiche unbestimmte Rechtsbegriffe, die definiert werden müssten, sofern sie zu einem handhabbaren Instrument weiterentwickelt werden sollen. Damit verbunden ist die Frage nach dem Definitionsrecht. Viele gewählte Formulierungen scheinen von einem herrschaftsfreien, kooperativen Zusammenarbeiten der mit F&E von KI betrauten Wissenschaftlern auszugehen bzw. davon, dass ein solches möglich ist, sofern der gute Wille hierzu bei den Forschern vorhanden ist. Die AP haben eine Reihe anderer Versuche zumindest indirekt mit initiiert, ethische Fragestellungen zu KI umfassend anzusprechen und angemessene Reaktionen einzufordern. So hat die Universität von Montreal bereits 2018 die Montreal Responsible AI Prinzipien beschlossen (Université de Montréal, 2018). Auch die OECD hat 2019 eine Reihe von KI-Prinzipien verabschiedet, die aber lediglich von 10 OECD-Ländern formal angenommen wurden (OECD, 2019).7 Diese wiederum wurden von den G20 unter japanischer Präsidentschaft auf dem Osaka-Gipfel übernommen, aber lediglich von Argentinien und Brasilien bestätigt (MOFA, 2019). In der Zwischenzeit hat die OECD ihre Prinzipien überarbeitet und angepasst (Agustinoy, 2024). Im Mai 2024 haben Geoffrey Hinton, Yuval Harari und andere Wissenschaftler die Warnungen des offenen Briefes führender KI-Wissenschaftler und Unternehmer von 2023 (FLI, 2024) in einem Science-Artikel eindringlich wiederholt (Hinton et al., 2024). Selbst Ray Kurzweil scheint mittlerweile einige seiner posthumanistischen Träume zu relativieren und betont den Wert der Asilomar-Prinzipien sowie die Notwendigkeit menschlicher Steuerung (Kurzweil, 2024, S. 320).
Die Asilomar-Prinzipien sind in die Abschnitte Forschungsfragen, Ethik und Werte sowie längerfristige Probleme gegliedert.

22.2.1 Forschungsfragen

Ein fundamentaler Kritikpunkt an den Asilomar-Prinzipien ist, dass diese fordern, dass nur „nützliche“ KI entsteht, ohne sich mit der Frage auseinanderzusetzen, was nützlich eigentlich bedeuten soll. Der im Prinzip Nr. 1 konstruierte Zusammenhang zwischen directed und beneficial ist beispielsweise unlogisch, da beides unterschiedliche Kategorien sind.8 Etwas kann ungeleitet oder unkontrolliert, aber dennoch nützlich sein, so wie es sehr vieles gibt, das kontrolliert entsteht, aber unnütz oder schädlich ist. Die Vorstellung, etwas kontrolliert und nur nützlich in die Welt bringen zu können, ist darüber hinaus von Hybris geprägt und überschätzt strukturell menschliche Möglichkeiten bzw. übersieht objektive Grenzen von Kontrollfähigkeit. Auch ist die nirgendwo diskutierte und damit potenziell unreflektierte Übernahme einer utilitaristischen Ethik als Bewertungsmaßstab problematisch. Wer legt warum wie fest, was eine nützliche KI ist? Angesichts der tatsächlichen ökonomischen und politischen Machtverhältnisse hinsichtlich der Entwicklung von KI impliziert eine solche Aussage, dass die jeweils Mächtigen und die von ihnen bezahlten KI-Experten festlegen, was nützlich ist. Was aber, wenn diese Gruppe der „KI-Mächtigen“ sich untereinander erbittert bekämpft? Eine Überspitzung macht hier Tragweite und Absurdität deutlich. Welche KI ist nützlich, um
  • die Ziele der Kommunistischen Partei Chinas zu erreichen?
  • woke, transhumanistische Hippie-Regenbogenträume weltweit zu fördern?
  • jüdisch-christliche, islamische oder hinduistische Werte gegen den nihilistisch-säkularen Liberalismus durchzusetzen?
Unterstellen wir, dass all diese Ideenwettbewerber unabhängig von ihren Selbstbildern und öffentlichen Selbstdarstellungen nach Macht und Profit streben, dann wird die Situation schnell ungemütlich. Kap. 24 verdeutlicht den Umfang, den dieser Konkurrenzkampf bereits heute angenommen hat.
Auch die politische und ökonomische Naivität der Prinzipien Nr. 4 und 5, die von einer Kultur von Zusammenarbeit, Vertrauen und Transparenz bei Forschern und Entwicklern von KI ausgehen, mutet nicht erst aus heutiger Sicht bizarr an.9 Vertrauensvolle Zusammenarbeit wird in den meisten Institutionen nur insoweit positiv gesehen, als es der Zielerreichung dient. Wenn aber im Wettbewerb stehende oder sogar gegensätzliche institutionelle Interessen aufeinanderstoßen, wie z. B. Unternehmensgewinn oder nationale Sicherheit (NSTC, 2016), müssten Forscher zur Einhaltung der Prinzipien Nr. 4 und 5 bereit sein, (teils starke) negative Sanktionen persönlich konkret zu ertragen. Doch stehen die AP mit ihren Forderungen nicht alleine da: In der Studie „The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation“ (NSTC, 2016) fordern 26 führende KI-Entwickler von allen Forschern und Entwicklern als nicht delegierbare Aufgabe, die Folgen ihrer Arbeiten nicht nur vorzudenken, sondern auch alle relevanten Akteure aktiv vor negativen Konsequenzen zu warnen und den Kreis derer, die informiert mitagieren und entscheiden sollen, beständig zu erweitern. Dies legt auch die Grundlage des offenen Briefes, den führende KI-Experten 2023 vorgelegt haben. In diesem warnen sie vor dem Hintergrund der Entwicklung großer Sprachmodelle und vor allem der sichtbaren Ergebnisse von ChatGPT4 massiv vor den Gefahren weiterer Entwicklungen hin zu einer allgemeinen (oder starken) KI und fordern ein sechsmonatiges Moratorium für weitergehende Forschungsarbeiten (FLI, 2024). Dieser mittlerweile von über 33.700 Menschen unterzeichnete Brief hat weltweit für Aufsehen gesorgt.
Ein weiteres seit den AP diskutiertes Dilemma besteht darin, dass ein offener KI-Diskurs bei Offenlegung der zugrunde liegenden Algorithmen die Gefahr für missbräuchliche Nutzungen erhöht (Brundage et al., 2018).
Auf einer grundlegenderen Ebene ist anzumerken, dass eine hypothetische dystopische Sicht, die im Sinne von Jonas’ Konzeption der „Fernwirkung der Technik“ mitdenkt, dass KI sowohl (unsichtbare) Kollateralschäden als auch unvorhersehbare negative Auswirkungen auf die Zukunft verursachen kann. Dies muss ebenso wissenschaftlich berücksichtigt werden wie die Tatsache, dass ein positiver Zukunftsentwurf („Wie wir leben wollen“) zur menschenzentrierten Nutzung von KI gesellschaftlich erst noch zu verhandeln ist (Schmiedchen et al., Hrsg., 2021). Symptomatisch für die fehlende Reflektion der AP auf dieser grundsätzlichen Ebene ist der dort formulierte Grundsatz: „Teams developing AI systems should actively cooperate to avoid cornercutting on safety standards.“ Auch wenn es mit der Verabschiedung der KI-Verordnung der EU 2024 die ersten normierten Safety-Standards zur Risikoklassifizerung gibt (s. Kap. 23), so ist doch eine wirksame Regulierung von KI allein deshalb schwierig, weil die technologische Entwicklung wesentlich schneller voranschreitet als jedweder demokratische Prozess der Normgebung reagieren kann, um einen Rahmen zu setzen und wirksame, operative Vorgaben zu machen (Cultural Lag) (Brundage et al., 2018).

22.2.2 Ethik und Werte

Die Prinzipien Nr. 6 und 7 behandeln den Anspruch von Fehlertransparenz und Betriebssicherheit und fordern umfassenden Sicherheitsschutz während der gesamten Betriebsdauer. Wollte man dies ernsthaft umsetzen, müsste man, um Fehlfunktionen lückenlos zu dokumentieren und die Erfolgschancen für Reparaturen zu optimieren, Konstruktionsangaben und Quellcodes ebenso öffentlich zugänglich speichern wie auch die entsprechenden Trainingsdaten und Trainingsprozesse. Dies dürfte meist schwer umsetzbar sein, da es sich hier zumindest teilweise um Informationen handelt, die von den betroffenen Unternehmen als geschützte Geschäftsgeheimnisse deklariert werden. Darüber hinaus macht die hohe Komplexität von Codes und der große Umfang verwendeter Daten es auch bei völliger Offenlegung noch schwierig, die Quellen von Fehlfunktionen zu entdecken. Hier liegt ein wesentlicher Bedarf für wirksame gesetzliche Regelungen, aber auch für Begleitforschung, wie das Risiko der Geheimhaltung von Quellcodes verringert werden kann. Die heutige Rechtslage erlaubt die Rekonstruktion von Quellcodes aus dem öffentlich zugänglichen kompilierten Code (Reverse Engineering), wenn auch oft, wie in der EU, auf bestimmte Fälle beschränkt. Das tieferliegende Problem bei der Offenlegung ist jedoch das damit verbundene Risiko der nicht kontrollierten Entwicklung von KI außerhalb bekannter, gesellschaftlich überwachter Strukturen mit den damit verbundenen Gefahren (z. B. Terrorismus und organisierte Kriminalität). Dennoch bleibt die Forderung nach der Einführung von Auskunftsrechten sowie nach Kennzeichnungs- und Publikationspflichten von hoher Bedeutung, so wie sie beispielsweise durch den Verbraucherzentrale Bundesverband gestellt wird (VB, 2017).
Prinzip Nr. 8 befasst sich mit dem Einsatz von KI in gerichtlichen Verfahren zur Effizienzerhöhung, insbesondere bei umfangreichen Verfahren sowie zur Unterstützung „besserer“ Entscheidungen. Unmittelbar in Prozessen der juristischen Entscheidungsfindung kann KI eingesetzt werden, um den Sachverhalt zu strukturieren, einen Vorschlag für die Entscheidung zu erstellen, Rückfall- und Sozialprognosen zu geben oder im Extremfall eine Entscheidung autonom zu treffen. All das ist in den meisten Staaten nach derzeitiger Rechtslage nur in sehr engen Grenzen legal. Ursache dafür dürfte sein, dass der Einsatz von KI bei der Bewertung und Entscheidung in gerichtlichen Verfahren grundsätzlich ethisch bedenklich ist. Insbesondere die Grenzziehung bei der Unterstellung von Kausalitätszusammenhängen sowie die Definition der Grenzen des freien Willens sind für eine Maschine mehr als nur eine Herausforderung – es ist einer Maschine nicht möglich. In den USA ist bereits eine Einstufungssoftware zur Rückfall- und Sozialprognose im Einsatz, bei der erste Evaluationen zeigen, dass die Gefahr besteht, dass sie zu Diskriminierungen aufgrund der Hautfarbe führen kann (Angwin et al., 2016). Angesichts der tatsächlichen Verbrechensstatistiken wird nun kontrovers diskutiert, ob es sich um rassistische Diskriminierung oder um einen objektiven Spiegel der Gefährderstruktur handelt.
Ein mögliches, breites Einsatzgebiet der KI ist das Erstellen von Sachverständigengutachten (z. B. zur Glaubwürdigkeit von Zeugen) oder von Nachweisen zur Begründung des Bestehens oder Nichtbestehens eines Anspruchs. Hier gilt, dass der Einsatz von KI als Beweismittel ein Mindestmaß an nachweisbarem, wissenschaftlich fundiertem Vorgehen, Transparenz und Nachvollziehbarkeit voraussetzt. Dabei ist die Frage der Transparenz im Hinblick auf die eingeflossenen Daten und der zugrunde gelegten Lernalgorithmen und Regeln zentral, da im Ergebnis unmittelbar Sachverhaltsfeststellungen durch die von der KI gewonnenen Erkenntnisse beeinflusst werden. Jedweder juristische KI-Einsatz erfordert deshalb zwingend gesetzliche Regelungen, die in allen Widerspruchs-/Berufungs-/Revisionsfällen eine Überprüfung durch höhere, rein menschliche Instanzen sowie umfassende einschlägige Schulungen des juristischen Personals voraussetzen.
Prinzip Nr. 9 fordert, dass KI-Konstrukteure bei fortgeschrittener KI (Advanced AI Systems) für beabsichtigte und unbeabsichtigte Folgen Verantwortung übernehmen sollen. Die Formulierung impliziert, dass Systeme, die weniger advanced sind, dieser Verantwortung nicht unterliegen.10 Die Frage nach Verantwortlichkeit (d. h. auch nach Kausalitäten) gestaltet sich jedoch bei komplexen Systemen schwierig und wird bei globalisierten Systemen potenziert. Gesetzliche Regelungen zur Durchsetzung von Haftungsansprüchen (Liabilities) und hier insbesondere Regelungen zur Beweislast sind in kapitalistischen Wirtschaftssystemen das effizienteste Instrument, um Verantwortungen eindeutig und sanktionierbar zu klären. Zahlreiche Erfahrungen der letzten 40 Jahre, vor allem aus dem Umweltrecht, belegen dies. Die Frage, wer wann für welchen Schaden haftet, hat aber auch, beispielsweise über Strategien des Risikomanagements und erforderliche Due-Diligence-Prüfungen, Rückwirkungen bis auf die Ebene von Investitionsentscheidungen.
Prinzip Nr. 12 zum Recht auf persönlichen Datenschutz beschränkt dies auf Daten, die von den Nutzern generiert werden. Demgegenüber bleiben Daten außen vor, die über diese Nutzer gesammelt werden. Damit verbleibt der weitaus größte Teil der Daten außerhalb der Kontrolle derjenigen, über die diese Daten etwas aussagen. Mit Blick auf KI beinhaltet das auch personenrelevante Informationen, die die KI durch Assoziationen, Verknüpfung und Kombination von Daten erzeugt.11 Forderungen nach einem barrierearmen und unbeschränkten Zugriffsrecht auf alle personenbezogenen Daten setzen eine explizite, vorherige Zustimmung zur Erhebung und Vernetzung ebenso voraus wie Vollständigkeit, Transparenz und das Recht auf Löschung (das Recht, vergessen zu werden), sofern es hiergegen keine übergeordneten rechtlichen Gründe gibt (z. B. Verschleierung einer Straftat).
Der Schutz der Privatsphäre und personenbezogener Daten steht auch im Mittelpunkt von Prinzip Nr. 13, das ein Beschneiden menschlicher Rechte als zulässig erklärt, sofern dies nicht „unreasonably“ geschieht. Nur im Zusammenhang mit einer potenziellen Gefährdung anderer Grundwerte sei dies möglich. Auch hier bleiben die AP vage. In unserer Stellungnahme haben wir folgende Elemente für einen wirksamen Persönlichkeitsschutz benannt:
  • Privacy-by-Design bzw. auf diesem Konzept basierende Gestaltungsvarianten, die bereits die im technischen Designprozess inhärente Privatheit und Datenschutz effektiv berücksichtigen und technisch umsetzen bzw. ermöglichen
  • Opt-Out- und Opt-In-Optionen sollten grundsätzlich verpflichtend sein. Dies muss auch gerade die Verknüpfung von Daten beinhalten.
  • Die grundlegende Entscheidung über die Verwendung von Daten sollte beim einzelnen Menschen liegen. Dazu bedarf es einer klaren Regelung, die auch Big Data transparent für den Einzelnen nachvollziehbar gestaltet.
  • Freedom to Information (Informationsfreiheit, -zugangsfreiheit und -transparenz) sollte gesetzlich so ausgestaltet werden, dass auch verknüpfende Daten einschließlich der dahinterliegenden Algorithmen von den Sammlern der Daten bereitgestellt werden müssen.
  • Mittels des Haftungs- und Strafrechts sind ggf. Überwachungs- und Datensammlungen durch Dritte so auszugestalten, dass der Einzelne wirksamen rechtlichen Schutz davor bekommt.
Prinzip Nr. 18 warnt vor den Gefahren eines Wettrüstens mit tödlichen autonomen Waffensystemen (LAWS). Es fehlen aber klare Aussagen, wie ein Wettrüsten verhindert werden soll. Die Risiken von LAWS z. B. aufgrund des Fehlens ethischen Verhaltens und möglicher Fehlsteuerung werden nicht adressiert (Scott et al., 2018; Brundage et al., 2018). Darüber hinaus zeigt die Formulierung von Prinzip 18, dass selbst militärische Anwendungen von KI keinen „Verbotsreflex“ bei der KI-Entwickler-Community auslösen. Auch bleibt unberücksichtigt, dass aggressive Angriffe auf kritische Infrastruktur oder Wirtschaftsunternehmen bereits weit unter der Schwelle von LAWS eine schnell wachsende Bedrohung darstellen, da die Kosten für solche Einsätze beständig sinken und der Angreifer schwer ermittelbar ist (Brundage et al., 2018; Executive Office of the President, 2016, S. 42, Empfehlungen 22 und 23).

22.2.3 Längerfristige Probleme

Prinzip Nr. 19 verdeutlicht, dass die AP keinerlei Grenzen für die weitere KI-Entwicklung sehen und solche auch nicht wollen. Wenn wir allerdings keine Kenntnis darüber haben, ob und wann eine allgemeine (starke) KI entsteht, und wir auch nicht wissen (können), ob und mit welchen Folgen diese gefährlich sein könnte, verlangt das EU-Vorsorgeprinzip, dass wir uns vorab als Gesellschaften, Staaten und internationale Staatengemeinschaft über rote Linien verständigen und diese wirksam durchsetzen müssen.
Dem entgegengesetzt führt Prinzip Nr. 20 aus, dass fortgeschrittene KI die Zukunft des Lebens auf dem Planeten Erde tiefgreifend verändern kann. Einer solchen fundamentalen Möglichkeit wird lediglich die Forderung entgegengestellt, „angemessen“ zu planen und zu entwickeln. „Angemessen“ ist ein unbestimmter Rechtsbegriff – wer bestimmt, was „angemessen“ ist und was die Maßstäbe sind? Das Hauptproblem dieses Prinzips ist, dass nicht gefragt wird, ob es ohne Vorlage zwingender Gründe überhaupt zulässig ist, tiefgreifende Veränderungen in der Geschichte des Lebens auf der Erde in Kauf zu nehmen, deren Richtung und Ausmaß Menschen nicht kennen und voraussehen können. Das Prinzip setzt demnach eine zentrale Erkenntnis der menschlichen Geschichte für die Zukunft fort, dass alles, was möglich ist, auch gemacht wird. Wenn also der Mensch fähig ist, eine allgemeine (starke) KI zu entwickeln, dann wird er das auch tun, einfach weil er es kann (vgl. Beck, 1986).
Prinzip Nr. 21 fordert darauf aufbauend Planungs- und Risikominderungsbemühungen, die den zu erwartenden Auswirkungen existenzieller Risiken und möglicher Katastrophen angemessen sind. Nun sind „Bemühungen“ aber nicht gleichbedeutend mit Erfolg, so dass die Formulierung besagt, dass diese Bemühungen zwar im Umfang dem Risiko angemessen sein müssen, aber in letzter Konsequenz auch scheitern können.
Im Gegensatz zu Prinzip Nr. 21 ist die Forderung nach strikten Kontroll- und Sicherheitsmaßnahmen im Prinzip Nr. 22 für sich selbstverbessernde KI angemessen. Die Möglichkeit eines generellen Verbots wird aber auch hier nicht erwogen. Doch selbst ein offizieller Bann könnte nicht verhindern, dass irgendwo auf der Welt Menschen um ihres Vorteils willen diesen Bann brechen würden, um z. B. wirtschaftliche, politische, ideologische oder religiöse Macht zu erlangen.
Im Prinzip Nr. 23 wird direkt von einer „Superintelligenz“ gesprochen, die „im Dienste weitverbreiteter ethischer Ideale der gesamten Menschheit und nicht nur einem Staat oder einer Organisation dienen soll.“ Jedoch leben wir Menschen nicht in einer herrschaftsfreien Weltgesellschaft.
Hier stellt sich schließlich aus Sicht der VDW die Frage: Warum sollen wir die Erschaffung einer Superintelligenz zulassen wollen? Würden wir dann nicht zu Gläubigen einer posthumanistischen Technikreligion, die den Menschen als eine notwendige Zwischenstufe der Evolution hin zu höheren, digitalen Wesen begreift? (Harari, 2017, S. 497 ff.; Dotzauer, 2017; Kurzweil, 2024).

22.3 Fazit

Die Verfasser der Asilomar-Prinzipien und die VDW-Studiengruppe waren und sind sich einig, dass KI das Leben auf der Erde tiefgreifend verändert und dass von der Schaffung einer starken KI (früher oder später) auszugehen ist. Zumindest ansatzweise sind wir uns auch einig, dass starke KI ein wesentliches Gefahrenpotential für den weiteren Verlauf der Menschheitsgeschichte birgt. Die AP waren ein guter Ansatzpunkt für die Diskussionen in den letzten acht Jahren, wie das KI-Potential menschenzentriert genutzt werden kann. Da die Asilomar-Prinzipien aber auf Basis der Prämisse einer grundsätzlich zu begrüßenden, grenzenlosen Technologieentwicklung bzw. -anwendung und einer utilitaristischen Ethik entstanden sind, war ihr tatsächlicher Mehrwert in den Diskussionen und Verhandlungen der letzten Jahre begrenzt.
Allein der Umstand, dass die Annahme jedes einzelnen Asilomar-Prinzips 90 % Zustimmung der Konferenzteilnehmer erforderte, zeigt die Zielsetzung „So viel Technikentwicklung wie möglich und so viel Regulierung wie nötig.“ Folgte man dem EU-Vorsorgeprinzip, würde dem entgegengesetzt die Zulassung von technologischer Entwicklung bzw. Anwendung 90 % Zustimmung erfordern. Das könnte mit dafür ursächlich sein, warum die USA und die VR China Europa seit 2017 in der KI-Entwicklung immer weiter abgehängt haben (vgl. auch Kap. 24). Dies sollte in einer Welt, in der Luft keine und Digitales nur wenige Grenzen kennt, zumindest zu denken geben!
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Download
Title
Die Asilomar-Prinzipien aus heutiger Sicht
Author
Frank Schmiedchen
Copyright Year
2026
Publisher
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-71567-3_22
1
An dem VDW-Policy Paper „Stellungnahme zu den Asilomar-Prinzipien zu Künstlicher Intelligenz“ haben mitgewirkt: Prof. Dr. Ulrich Bartosch, Prof. Dr. Stefan Bauberger SJ, Tile von Damm, Dr. Rainer Engels, Prof. Dr. Malte Rehbein, Frank Schmiedchen, Prof. Dr. Heinz Stapf-Finé und Angelika Sülzen.
 
2
Damals waren wir übrigens noch wesentlich optimistischer, was den Entwicklungs- und Anwendungsfortschritt in Deutschland und der EU betrifft.
 
3
Der Einfluss von KI ist aber schwer unabhängig messbar von anderen Aspekten der Digitalisierung.
 
4
Müller und Bostrom (2013): Diese gehen von 2022 (Median optimistisches Jahr) über 2040 (Median realistisches Jahr) bis 2075 (Median pessimistisches Jahr) aus. Zu ähnlichen Schätzungen kann man auch kommen, wenn man das Mooresche Gesetz von 1965 zugrunde legt und die explosionsartigen Fortschritte der letzten drei Jahre extrapoliert. Die Rechenleistung des menschlichen Gehirns liegt laut Raymond Kurzweil bei ca. 10.000 TeraFlops. Diese Rechenleistung haben Großrechenanlagen bereits deutlich überschritten. Darüber hinaus sind sie miteinander direkt vernetzbar. Es gibt aber auch Stimmen, die behaupten, dass die Entwicklung starker KI „in absehbarer Zeit noch nicht realisierbar“ sei (EFI, 2018, S. 69).
 
5
Gründer bzw. starke Unterstützer des Instituts sind Stephan Hawking, Elon Musk, Max Tegmark (MIT), Jaan Tallinn (Skype-Erfinder), Stuart J. Russell (Informatik), George Church (Biologie), Saul Perlmutter und Frank Wilczek (Physik) sowie Alan Alda und Morgan Freeman (Schauspieler). Elon Musk hat dem FLI im Januar 2015 ein mit 10 Mio. US-$ dotiertes Forschungsprogramm zu KI finanziert, das auf Sicherheitsfragen und die Entwicklung „nützlicher“ KI fokussiert. Mit den Finanzmitteln wurden 37 Forschungsprojekte gefördert.
 
6
In der aktuellen Seitengestaltung, https://futureoflife.org/open-letter/ai-principles/ [14.12.2024].
 
7
Australien, Deutschland, Frankreich, Italien, Japan, Kanada, Mexiko, Türkei, Vereinigtes Königreich, USA.
 
8
„The goal of AI research should be to create not undirected intelligence, but beneficial intelligence“.
 
9
Ähnlich: Executive Office of the President, 2016, S. 42, Empfehlungen 19 und 21.
 
10
Demgegenüber sieht der wissenschaftliche Dienst des EP grundsätzlich immer die Notwendigkeit, Verantwortlichkeiten ex-ante zu definieren. EPRS (2016).
 
11
Neben den Daten, die Menschen von sich direkt oder indirekt preisgeben (etwa durch soziale Medien, Nutzung von Suchmaschinen oder dem Internet der Dinge) und gegen die sich ein jeder wehren könnte, ist die Bedeutung einer Sammlung von Daten durch Sensoren (angefangen bei Überwachungskameras) nicht zu unterschätzen. Auch aktuelle Entwicklungen in Richtung „Neuro-Daten“ sind zu beobachten.
 
go back to reference Agustinoy, A. (2024). OECD updates AI principles. https://www.cuatrecasas.com/en/global/intellectual-property/art/oecd-updates-ai-principles. Zugegriffen am 25.12.2024.
go back to reference Angwin, J., et al. (2016, Mai 23). Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Zugegriffen am 17.07.2025.
go back to reference Bauberger, S. (2021a). Technikphilosophische Fragen. In F. Schmiedchen et al. (Hrsg.), Wie wir leben wollen (S. 83–88). Logos Verlag.
go back to reference Bauberger, S. (2021b). Maschinenrechte. In F. Schmiedchen et al. (Hrsg.), Wie wir leben wollen (S. 109–114). Logos Verlag.
go back to reference Beck, U. (1986). Risikogesellschaft. Auf dem Weg in eine andere Moderne. Erstausgabe (1. Aufl.). Suhrkamp.
go back to reference BITKOM. (2017). Künstliche Intelligenz verstehen als Automation des Entscheidens – Leitfaden.
go back to reference Brundage, M., et al. (2018). The malicious use of artificial intelligence: Forecasting, prevention and mitigation. https://arxiv.org/pdf/1802.07228. Zugegriffen am 25.12.2024.
go back to reference Dotzauer, G. (2017, Dezember 12). Näher, mein Bot, zu dir. Tagesspiegel.
go back to reference Eberle, U. (2015, Juli 28). Sprachassistenten verändern unser Leben. Wirtschaftswoche.
go back to reference EFI, Expertenkommission Forschung und Innovation. (2018). Gutachten zu Forschung, Innovation und technologischer Leistungsfähigkeit 2018.
go back to reference EPRS. (2016). European Parliamentary Research Service, Scientific Foresight Unit (STOA), PE 563.501: Ethical Aspects of Cyber-Physical Systems. Scientific Foresight study.
go back to reference EU. (2024). Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13.06.2024 zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über Künstliche Intelligenz) (Text von Bedeutung für den EWR). https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689. Zugegriffen am 25.12.2024.
go back to reference Executive Office of the President. (2016). Preparing for the future of artificial intelligence.
go back to reference FLI. (2024). Pause Giant AI experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Zugegriffen am 26.12.2024.
go back to reference Harari, Y. N. (2017). Homo Deus – Eine Geschichte von Morgen. C.H. Beck.
go back to reference Henk, M. (2014, Juni 15). Jugend ohne Sex. Zeit.
go back to reference Hinton, et al. (2024). Managing extreme AI risks amid rapid progress. Science, 384(6698), 842–845. https://www.science.org/stoken/author-tokens/ST-1870/full. Zugegriffen am 26.12.2024.CrossRef
go back to reference Jonas, H. (1979). Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation (1. Aufl.). Insel-Verlag.
go back to reference Kurzweil, R. (2024). Die nächste Stufe der Evolution. Piper Verlag.
go back to reference Link, J. S. A. (2021). Pfadabhängigkeit und Lock-in. In F. Schmiedchen et al. (Hrsg.), Wie wir leben wollen (S. 61–81). Logos Verlag.
go back to reference Müller, V. C., & Bostrom, N. (2013). Future progress in artificial intelligence: A Survey of Expert Opinion. In V. C. Müller (Hrsg.), Fundamental Issues of Artificial Intelligence. Springer Nature.
go back to reference NSTC, National Science and Technology Council. (2016). The National Artificial Intelligence Research and Development Plan.
go back to reference OECD. (2019). OECD AI principles. https://oecd.ai/en/ai-principles. Zugegriffen am 26.12.2024.
go back to reference Schmiedchen, F. (2021). Digitale Erweiterungen des Menschen, Transhumanismus und technologischer Posthumanismus. In F. Schmiedchen et al. (Hrsg.), Wie wir leben wollen (S. 89–101). Logos Verlag.
go back to reference Schmiedchen, F., et al. (Hrsg.). (2021). Wie wir leben wollen. Logos Verlag.
go back to reference Scott, B., et al. (2018). Artificial Intelligence and Foreign Policy. https://www.interface-eu.org/storage/archive/files/ai_foreign_policy.pdf. Zugegriffen am 17.07.2025.
go back to reference TAB, Büro für Technikfolgenabschätzung beim Deutschen Bundestag. (2016). Technologien und Visionen der Mensch-Maschine-Entgrenzung. Sachstandbericht zum TA-Projekt „MenschMaschine-Entgrenzungen: zwischen künstlicher Intelligenz und Human Enhancements“ (Arbeitsbericht Nr. 167).
go back to reference VB, Verbraucherzentrale Bundesverband. (2017). Algorithmenbasierte Entscheidungsprozesse – Thesenpapier des vzbv.

Premium Partner

    Image Credits
    Neuer Inhalt/© ITandMEDIA, Nagarro GmbH/© Nagarro GmbH, AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, USU GmbH/© USU GmbH, Ferrari electronic AG/© Ferrari electronic AG