Skip to main content
Top

21. Verantwortliche KI-Governance

  • Open Access
  • 2026
  • OriginalPaper
  • Chapter
Published in:

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Dieses Kapitel erläutert, was die Zwillingstransformation, welche Nachhaltigkeit und Digitalisierung miteinander verbindet, bedeutet. Vor diesem Hintergrund erfolgt eine Einführung in die Ethik der Künstlichen Intelligenz, die die grundlegenden ethischen Prinzipien, die mit der Entwicklung und Anwendung von KI-Technologien verbunden sind, untersucht und kritisch bewertet. Dem folgt ein Abschnitt über Regulatorik vor allem auf europäischer Ebene, gefolgt von einer Betrachtung der Rolle freiwilliger Verhaltenskodizes, die als Schlüssel zur ethischen Positionierung von Unternehmen dienen. Diese Kodizes werden auf der Mesoebene eingeführt und bieten Unternehmen eine Möglichkeit, über die gesetzlichen Anforderungen (Makroebene) hinaus Verantwortung zu übernehmen und Vertrauen aufzubauen. Abschließend wird auf der Mikroebene die Bedeutung individueller digitaler Primärtugenden untersucht, die notwendig sind, um die ethische Nutzung von Technologie sicherzustellen und eine nachhaltige digitale Transformation zu fördern.

21.1 Einführung

Die rasante Entwicklung der Künstlichen Intelligenz (KI) bietet nahezu unbegrenzte Möglichkeiten für Wirtschaft und Gesellschaft. Wie Prometheus, der in der griechischen Mythologie einst den Göttern das Feuer stahl und es der Menschheit schenkte, entfesseln wir heute die grenzenlosen Möglichkeiten der vernetzten Digitaltechnologie. Dies eröffnet ein neues Kapitel in der Geschichte der menschlichen Zivilisation (s. Kap. 1). Zugleich wirft es eine Vielzahl ethischer Fragen auf, die sowohl die Gesellschaft als Ganzes als auch die einzelnen Individuen betreffen. So erwirkt und verstärkt Künstliche Intelligenz erhebliche ökologische, soziale und politische Kosten, etwa durch die Extraktion natürlicher Ressourcen, die Ausbeutung von Arbeitskräften und die Ansammlung riesiger Datenmengen (Crawford, 2021, s. Kap. 17 und 18) oder durch Formen von Bias und Diskriminierung (Martin, 2022).
Zugleich haben wir neben der digitalen Transformation mit der nachhaltigen Entwicklung, vor allem mit dem Klimawandel und den damit verbundenen Anpassungsmaßnahmen, einen zweiten Megatrend zu bewältigen. Man mag auf den ersten Blick meinen, dass diese doppelte – nachhaltige und digitale – Transformation die Herausforderungen für die Menschheit weiter zuspitzt. So zeigt die jüngste Trendstudie Jugend in Deutschland 2024 eindrucksvoll, dass es noch nie so viel Angst unter Jugendlichen gab. Es sind jedoch weniger persönliche als gesellschaftliche Zukunftsängste: politische Verhältnisse, wirtschaftliche Entwicklung und gesellschaftlicher Zusammenhalt (Schnetzer et al., 2024). Auf der anderen Seite, wenn man es klug umsetzt und „wirklich, wirklich will“ (Bergmann, 2019), kann die Digitalisierung einen positiven Beitrag zur nachhaltigen Transformation leisten. Und dies erst recht durch den Einsatz Künstlicher Intelligenz.
Eine Lösung könnte darin liegen, die Zwillingstransformation auf drei Governance-Ebenen zu choreographieren: Auf einer Makroebene geht es um Regulatorik umgesetzt durch die Politik; auf einer Mesoebene um Corporate Digital Responsibility umgesetzt durch die Unternehmen; auf einer Mikroebene um die digitalen Primärtugenden umgesetzt durch den Menschen. Politik, Unternehmen und Menschen sind also die zentralen Akteure der doppelten Transformation und Regulatorik, Markt und Tugend deren Governance-Mechanismen. Das alles wird durch die Zwillingstransformation auf der Supraebene eingerahmt.
Durch die Kombination von theoretischen Grundlagen, der Analyse von Regulierungsansätzen und praktischen Unternehmensbeispielen bietet der Beitrag einen umfassenden Überblick über die aktuelle Landschaft einer sich formenden Digitalethik als neuer Bereichsethik und zugleich einen Einblick in gelebte Praxis und neue Routinen von Unternehmen. Bei der fortlaufenden Auseinandersetzung mit ethischen Fragen der KI übernehmen Unternehmen als Akteure eine wesentliche Rolle. Sie können maßgeblich zur Gestaltung einer ethisch verantwortungsvollen Zukunft der Künstlichen Intelligenz beitragen.

21.2 Das Phänomen der Zwillingstransformation

Das Prinzip der Nachhaltigkeit ist seit dem Brundtland-Report 1987 als Leitbild für Gesellschaft und Unternehmen allgemein anerkannt. Mit der Agenda 21 wurde die Idee einer ökologischen, ökonomischen und sozialen nachhaltigen Entwicklung umgesetzt. Die Kernherausforderung liegt in der Ausbalancierung ökonomischer, ökologischer und sozialer Ansprüche.
Die Zwillingstransformation beschreibt nun die kombinierte Entwicklung von Nachhaltigkeit und Digitalisierung. Die Unternehmens- und Strategieberatung Accenture führte den Begriff der Twin Transformation im Jahr 2021 ein. Unternehmen, die die Transformation umsetzen, haben laut Accenture eine höhere Wahrscheinlichkeit, zu den stärksten Unternehmen zu gehören. In einer Studie von mind digital (2024) lassen sich diese Ergebnisse auch für den Mittelstand bestätigen. So wachsen knapp 60 % der Twin Transformer trotz hoher wirtschaftlicher Unsicherheiten profitabel. Für jedes drittes Unternehmen ist die Twin Transformation sogar der wichtigste Erfolgstreiber. Quaing et al. haben einen Praxisleitfaden mit Fallbeispielen zur doppelten Transformation für mittelgroße und kleinere Unternehmen verfasst (2023). Im Durchschnitt gestalten 34 % der kleinen und mittleren Unternehmen (KMU) ihre digitale Infrastruktur unter Berücksichtigung von sozialen und ökologischen Kriterien. Zu ähnlichen Ergebnissen kommt auch der nachhaltig.digital Monitor 2021. Fehlendes Knowhow und Qualifizierungsmaßnahmen gelten als Hemmnisse für den Einsatz digitaler Innovationen (55 %) und die Umsetzung von Nachhaltigkeitsaspekten (44 %). Die Studie macht deutlich: Es gibt noch eine eklatante Lücke zwischen dem Wissen und Handeln (Quaing & Fink, 2022). Ein wesentlicher Faktor für den Erfolg von Unternehmen scheint die Umsetzungsgeschwindigkeit der digitalen Transformation.
Grundsätzlich lassen sich vier Prototypen einer Twin-Transformer-Strategie unterscheiden: Die Separationsstrategie betrachtet Digitalisierung und Nachhaltigkeit getrennt voneinander, während die Schnittstellenstrategie aufzeigt, dass Digitalisierung nachhaltig sein kann (aber nicht muss). Die Unterstützungsstrategie stellt die Digitalisierung in den Dienst des Menschen, und die Integrationsstrategie lebt die Zwillingstransformation, indem Digitalisierung und Nachhaltigkeit Hand in Hand gehen (Brink, 2022a). Die digitale Transformation eröffnet im Sinne der Unterstützungsstrategie ein weites Feld für nachhaltige Innovationen. Durch den Einsatz von Technologien wie Künstlicher Intelligenz (KI), Internet der Dinge (IoT) und Blockchain können Prozesse optimiert und Ressourcen effizienter genutzt werden. KI kann beispielsweise in der Landwirtschaft eingesetzt werden, um den Einsatz von Düngemitteln zu optimieren und den Ernteertrag zu steigern. Das IoT ermöglicht die Überwachung von Energieverbräuchen in Echtzeit, was zu einer effizienteren Nutzung von Ressourcen führt. Die Blockchain-Technologie kann Lieferketten transparenter machen und sicherstellen, dass Produkte nachhaltig produziert werden. Data4SDG ist ein prominentes Beispiel einer Unterstützungsstrategie, die die Bedeutung von Daten und Datenanalyse als wesentliches Werkzeug zur Messung des Fortschritts, zur Identifizierung von Herausforderungen und zur informierten Entscheidungsfindung im Streben nach diesen Zielen unterstreicht. 18,8 % setzen KI im Sinne einer solchen Unterstützungsstrategie zur Förderung der Nachhaltigkeit ein (IDG Research Services, Applied AI, 2023, S. 15). AI4Good ist eine Initiative verschiedener Akteure, die Künstliche Intelligenz nutzen, um einen positiven Einfluss auf Mensch und Natur zu kreieren. Eine Studie von Microsoft, das technischer Partner der Initiative ist, und der Unternehmensberatung PwC im Auftrag des Weltwirtschaftsforums zeigt zudem, dass Künstliche Intelligenz in sechs dringlichen Handlungsfeldern zukünftig hilfreich sein kann (Herweijer et al., 2020).

21.3 Ethik der Künstlichen Intelligenz

21.3.1 Begriffsdefinition und Abgrenzung

Der Begriff „Digitalisierung“ leitet sich vom lateinischen Wort digitus (= Finger oder Zehe) ab. Ursprünglich bezieht sich digitus auf die Zählweise mit den Fingern, was später auf das Zählen im Allgemeinen übertragen wurde. Diese Bedeutung hat sich dann in der Entwicklung der modernen Technologie weiter entfaltet. Im Kontext der Digitalisierung bedeutet dies die Umwandlung von analogen Informationen in ein digitales Format, das heißt in Zahlen oder digits.
Der Ausdruck Digitalisierung findet in der gegenwärtigen Diskussion in zwei wesentlichen Kontexten Anwendung: Zum einen meint digitization die Transformation und Verarbeitung von überwiegend analogen, alltagsbezogenen Phänomenen in digitale Formate. Zum anderen bezieht sich digitalization auf die Verknüpfung digitaler Endgeräte mittels Daten. Besonders die zweite Bedeutung führt zu Prozessen der Automatisierung und Informatisierung, die ethisch von großer Bedeutung sind (Brennen & Kreiss, 2014).
Künstliche Intelligenz (KI) wird oft als eine Schlüsseltechnologie innerhalb des Digitalisierungsprozesses betrachtet. Sie ist nicht nur ein Produkt der Digitalisierung, indem sie auf digitalen Daten und Algorithmen basiert, sondern treibt auch aktiv die digitale Transformation im Sinne einer digitalization voran, indem sie Prozesse automatisiert, Entscheidungsfindungen unterstützt und neue Möglichkeiten der Datenanalyse und -nutzung eröffnet. KI-Systeme können große Datenmengen verarbeiten, Muster erkennen und darauf basierend Vorhersagen treffen oder autonom handeln, was sie zu einem integralen Bestandteil vieler digitaler Anwendungen macht. John McCarthy, einer der Begründer des Feldes, versteht unter Künstlicher Intelligenz die Wissenschaft und Ingenieurskunst, intelligente Maschinen zu erschaffen, insbesondere intelligente Computerprogramme. Es ist die Fähigkeit einer Maschine oder eines Programms, Aufgaben durchzuführen, die, wenn sie von Menschen ausgeführt würden, Intelligenz erfordern würden. Diese Aufgaben können das Verstehen natürlicher Sprache, das Erkennen von Mustern und Bildern, das Treffen von Entscheidungen basierend auf komplexen Datenlagen und das Lernen aus Erfahrungen umfassen. In der aktuellen Forschung und Anwendung wird KI oft in zwei weitere Strömungen unterteilt: schwache KI (narrow AI), die darauf ausgelegt ist, spezifische Aufgaben ohne das volle Verständnis oder Bewusstsein eines Menschen auszuführen, und starke KI (general AI), die das Ziel hat, eine Maschine oder ein System zu entwickeln, das ein allgemeines, menschenähnliches Verständnis und Bewusstsein aufweisen kann.

21.3.2 Einordnung in die Bereichsethiken1

Über ethische Fragen des technischen Fortschritts diskutiert die Menschheit seit der Antike. Die Digitalethik ist nunmehr eine neue Bereichsethik, die existenzielle Fragen nach dem „guten“ Leben und dem „richtigen“ Zusammenleben ebenso in den Blick nimmt wie die großen Fragen der Aufklärung: Selbstbestimmung – und eng damit verbunden Autonomie, Teilhabe, Souveränität und Privatheit –, Gerechtigkeit, Menschenwürde und Freiheit. Es geht dabei immer um normative Abwägungsprozesse und Klugheitsentscheidungen in realen Kontexten.
In diesem Kontext ist eine Unterscheidung zwischen Werten, Moral und Ethik erforderlich. Werte fungieren als Bindeglied zwischen der individuellen und der gesellschaftlichen Ebene, indem sie von innen unsere Handlungen leiten. Moral wird als ein System aus Regeln und Normen verstanden, das die Handlungsorientierung vorgibt. Sie umfasst alle von einer Gesellschaft akzeptierten, durch Tradition gefestigten Verhaltensstandards oder die tatsächlich herrschenden Normen innerhalb einer Gruppe oder Organisation. Ethik hingegen stellt die Theorie zur kritischen Auseinandersetzung mit der Moral dar. Ihre Aufgabe liegt darin, die in bestimmten Situationen vorherrschenden moralischen Einstellungen oder Urteile unter Berücksichtigung von Prinzipien wie Selbstbestimmung, Gerechtigkeit, Menschenwürde oder Freiheit kritisch zu hinterfragen.
Die Ausdifferenzierung unserer Gesellschaft und ihrer wissenschaftlichen, kulturellen und technischen Sphären führt auch zu einer zunehmenden Granulation der ethischen Reflexion über moralische Fragen. Diese spiegelt sich in einer Vielzahl angewandter Ethiken wider, sogenannten Bindestrichethiken, die nach Sachgebieten, Handlungs- oder auch Berufsfeldern sortiert werden (Stoecker et al., 2011).2 Die Digitalethik hat sich aus der Technikethik entwickelt und dann in andere Bereichsethiken weiter differenziert, wie beispielsweise die Maschinenethik (Anderson & Anderson, 2007), die Informations- und Computerethik sowie die Roboterethik (Lin et al., 2017) und schließlich die Cyber- oder Internetethik. Eine weitere Differenzierung jüngeren Datums ist die Daten- bzw. speziell die Algorithmenethik (Altimeter, 2015; Datenethikkommission, 2019). Als Vorläufer und Ideengeber ist sicherlich Norbert Wiener zu nennen, der mit seinem Buch „The Human Use of Human Beings“ (1989/1950) frühzeitig ethisch relevante Themen adressierte. Ein weiterer Meilenstein in der Computerethik der 1970er- und 1980er-Jahre ist Joseph Weizenbaums Werk „Computer Power and Human Reason“ (1976), in dem erstmals die sozialen Implikationen von Technik ausführlich markiert werden.
Gegenstand einer Digitalethik ist die Analyse der Auswirkungen der Digitalisierung auf gültige moralische Vorstellungen: „Digitalethik fragt nach dem richtigen Handeln und dem guten Leben unter den Bedingungen der Digitalisierung. Sie untersucht die gesellschaftliche, ökologische und ökonomische Verträglichkeit digitaler Technologien in ihrer Entwicklung und Anwendung“ (PwC, 2020, S. 6). Eine ähnliche Definition geben Floridi und Taddeo. Den Autoren zufolge beschäftigt sich die Disziplin mit den „Daten (Erzeugung, Speicherung, Pflege, Verarbeitung, Verbreitung, Weitergabe und Nutzung), den Algorithmen (Künstlicher Intelligenz, künstlicher Agenten, maschinellen Lernens und von Robotern) und den entsprechenden Praktiken (Innovation, Programmierung, Hacking, Berufskodizes), um ethisch gute Lösungen zu formulieren.“
Die Vielfalt an Definitionen, Begriffsbildungen und Abgrenzungen ist ein Charakteristikum der Digitalethik. Die Quellenlage baut sich gerade auf, und verschiedene Ordnungsversuche stehen in einem Wettbewerb zueinander (Manzeschke & Brink, 2020; Nida-Rümelin, 2018; Spiekermann, 2019; Kirchschläger, 2021).

21.3.3 Corporate Digital Responsibility

In der Managementpraxis wie auch in den Managementwissenschaften hat sich in diesem Zusammenhang der Begriff Corporate Digital Responsibility durchgesetzt. Dieser geht auf die US-Managementberatung Accenture zurück, die damit im Jahr 2015 fundamentale Fragen der unternehmerischen Verantwortung in der digitalen Ökonomie adressierte (Cooper et al., 2015, S. 2). Die Autoren sahen dabei fünf Anwendungsbereiche im Fokus: verantwortungsvoller Umgang mit Daten durch Datenschutz und Datensicherheit (digital stewardship), Transparenz der Nutzung von Kundendaten (digital transparency), Unterstützung von Kundinnen durch Nudging (digital empowerment), faire Verteilung der Gewinne aus der Nutzung von Kundendaten (digital equity) und die Bereitstellung von Datensätzen für Forschungszwecke (digital inclusion). Verantwortliche Digitalisierung kann als Shared-Value-Strategie verstanden werden, die sowohl wirtschaftliche Interessen als auch gesellschaftliche Bedürfnisse vereint (Esselmann & Brink, 2016). Im Zentrum stehen die Minimierung von ökonomischen, ökologischen und sozialen Risiken durch die Digitalisierung und eine Maximierung von deren Chancen. Brink und Esselmann haben diesen Ansatz also strategisch operationalisiert. Damit übertrugen die Autoren die Idee des US-Wettbewerbsökonomen Michael Porter auf den Digitalisierungskontext (Porter & Kramer, 2011). Letztlich geht es um „die verantwortliche Gestaltung der Digitalisierung im Kerngeschäft des Unternehmens“ (Esselmann & Brink, 2016, S. 35).

21.4 KI-Verordnung der Europäischen Union – die Makroebene

21.4.1 Einführung

Mit ihrer KI-Verordnung3 (AI Act) hat die EU einen bedeutenden Schritt zur Förderung verantwortungsbewusster und transparenter KI-Systeme gemacht (Europäisches Parlament, 2024; Future of Life Institute, 2024). Das Gesetz setzt Maßstäbe für den Ausgleich zwischen Grundrechtsschutz und Innovationsförderung. Gleichzeitig müssen pragmatische Regelungen geschaffen werden, die mit der technologischen Entwicklung Schritt halten. Trotz Herausforderungen legt der AI Act eine solide Grundlage für Europa als führenden Standort für KI-Innovationen und zur Steuerung von KI im öffentlichen Interesse. Europa könnte seine Wettbewerbsfähigkeit erhalten, mit KI made in Europe eine führende Rolle in der KI-Entwicklung übernehmen und Investoren durch höchste Qualitäts- und Sicherheitsstandards anziehen.
Alle Akteure – Wirtschaft, Politik und Zivilgesellschaft – sind nun gefordert, sich intensiv mit den Chancen und Risiken von KI basierend auf den Leitlinien des AI Acts auseinanderzusetzen. Neben Rechts- und Compliance-Beratungen werden ethische Sensibilisierungsmaßnahmen zunehmend an Bedeutung gewinnen. Unternehmen sollen bei der Integration ethischer Prinzipien in ihre KI-Anwendungen unterstützt werden, was die Entwicklung von Ethikrichtlinien und die Bewältigung von Risiken einschließt. Die Zunahme an Regulierung ist gegenwärtig der stärkste Treiber für die nachhaltige Transformation (PwC, 2024). Im Folgenden werden die wichtigsten Überlegungen der EU vorgestellt, wie sie in der EU KI-Verordnung und in der EU Digitalstrategie ihren Niederschlag gefunden haben (vgl. Europäisches Parlament, 2024; European Union, 2019).

21.4.2 Die Eckpunkte des AI Acts

Die meisten Verpflichtungen betreffen die Anbieter (Entwickler) von risikoreichen KI-Systemen. Dies schließt sowohl diejenigen ein, die hochriskante KI-Systeme in der EU in Verkehr bringen oder in Betrieb nehmen wollen, unabhängig davon, ob sie in der EU oder in einem Drittland ansässig sind, als auch Anbieter aus Drittländern, deren hochriskante KI-Systeme in der EU verwendet werden. Nutzer sind natürliche oder juristische Personen, die ein KI-System beruflich einsetzen, jedoch keine Endnutzer. Diese Nutzer von hochriskanten KI-Systemen haben ebenfalls einige Verpflichtungen, wenn auch weniger als die Anbieter. Dies gilt sowohl für Nutzer in der EU als auch für Nutzer in Drittländern, wenn der Output des KI-Systems in der EU verwendet wird.
Der Gesetzgeber fasst den Begriff der Künstlichen Intelligenz weit, indem auf die in Anhang I des Entwurfs genannte Techniken verwiesen wird:
„Wenn eine Software
  • Konzepte des maschinellen Lernens oder tiefen Lernens (Deep Learning),
  • Logik- und wissensgestützte Konzepte, einschließlich Wissensrepräsentation, induktiver (logischer) Programmierung, Inferenz- und Deduktionsmaschinen, Schlussfolgerungs- und Expertensysteme oder
  • statistische Ansätze, Bayessche Schätz-, Such- und Optimierungsmethoden
nutzt und sie zudem
  • vom Menschen festgelegte Ziele verfolgt,
  • Ergebnisse oder Inhalte vorhersagt, empfiehlt oder entscheidet und
  • das Umfeld beeinflusst, mit dem sie interagiert,
spricht der Gesetzgeber von Künstlicher Intelligenz, womit einige IT-Unternehmen in den Anwendungsbereich der Verordnung fallen dürften“ (thinkdigital, 2024).
Die EU KI-Verordnung folgt dem Ansatz des bestehenden Weißbuchs zur Künstlichen Intelligenz der EU-Kommission, in dem die Anwendungen der KI in vier Kategorien eingeteilt werden. Die Einordnung richtet sich nach dem potenziellen Risiko, das mit dem Einsatzbereich der Künstlichen Intelligenz einhergeht. Die Risikogruppen sind eingeteilt in ein unannehmbares Risiko, ein hohes Risiko (Hochrisiko-KI-Systeme) und ein geringes oder minimales Risiko. Je höher das Risiko, desto strenger die Regulierungen, die nachfolgend aufgelistet werden.
Nach Artikel 5 Nr. 1 sind KI-Anwendungen der unannehmbarem Risikogruppe untersagt. Hierzu zählen Anwendungen, die
  • menschliches Verhalten manipulieren und Menschen schaden könnten,
  • aufgrund von sozialem Verhalten oder persönlicher Charakteristik eine nachteilige Bewertung ermöglichen,
  • in Echtzeit ferne Systeme in der Öffentlichkeit erkennen und eine biometrische Identifizierung von Menschen ermöglichen; Ausnahmen bestehen zur Abwehr von Terrorismus oder um schwere Straftaten aufzuklären.
Wenn ein System als Hochrisiko-KI-System eingestuft wird, finden die Artikel 8 ff. Anwendung. Konkrete Pflichten für die betroffenen Akteure sind:
  • Einrichtung, Dokumentation und Aufrechthaltung eines Risikomanagementsystems,
  • Einhalten von Daten-Governance- und Datenverwaltungsverfahren für die zu verwendenden Trainings-, Validierungs- und Testdatensätze, darunter relevante Datenaufbereitungsvorgänge wie Kommentierung, Kennzeichnung, Bereinigung, Anreicherung und Aggregierung und eine vorherige Bewertung der Verfügbarkeit, Menge und Eignung der benötigten Datensätze,
  • Führen einer technischen Dokumentation,
  • Aufsichtsführung durch menschliches Personal,
  • Aufzeichnungspflicht über die Vorgänge und Ereignisse, so dass diese automatisch während des gesamten Lebenszyklus der KI aufgezeichnet werden und
  • transparente Informationen für die Nutzer, darunter die Merkmale, Fähigkeiten und Leistungsgrenzen des Hochrisiko-KI-Systems.
KI-Systeme, die nach Ansicht der Gesetzgeber ein geringeres Manipulationsrisiko aufweisen, fallen unter den Artikel 52. Das umfasst Systeme, die
  • mit Menschen interagieren,
  • zur Erkennung von Emotionen oder zur Assoziierung (gesellschaftlicher) Kategorien anhand biometrischer Daten eingesetzt werden, oder
  • Inhalte erzeugen oder manipulieren.
Darunter fallen Spamfilter, Videospiele, Suchalgorithmen, Deepfakes oder Chatbots. Für sie gilt nur eine minimale Transparenz- und Informationspflicht über den Einsatz selbst oder darüber, dass die dargestellten Inhalte manipuliert und nicht echt sind.

21.5 Verhaltenskodizes als Schlüssel zur ethischen Positionierung – die Mesoebene

21.5.1 Einführung

Diese Regelungen des Artikel 69 zielen darauf ab, eine freiwillige Einhaltung der Anforderungen zu fördern und sicherzustellen sowie verschiedene Interessengruppen in die Entwicklung von KI-Systemen einzubeziehen. Die Einführung einer internen Richtlinie zum Umgang mit generativen KI-Tools in einem Unternehmen ist aus mehreren Gründen wesentlich. Sie dient erstens dazu, Mitarbeiter über die Funktionsweise und Anwendungsmöglichkeiten dieser Tools zu informieren, ihnen ein Verständnis für deren Potential und Grenzen zu vermitteln und somit ein fundiertes Basiswissen zu schaffen. Zweitens legt sie verbindliche Regeln und Verhaltensvorgaben fest, die nicht nur rechtliche Anforderungen berücksichtigen, sondern auch auf spezifische Unternehmensbedürfnisse zugeschnitten sind. Dies erleichtert es den Anwendern, die Regelungen im Alltag umzusetzen, und minimiert die rechtlichen Risiken für das Unternehmen. Im nachfolgenden Artikel 69 „Verhaltenskodizes“ heißt es dazu (Risknow, 2024):
  • Förderung und Erleichterung der Verhaltenskodizes: Die Kommission und die Mitgliedstaaten sollen die Erstellung von Verhaltenskodizes unterstützen und erleichtern, die auf die freiwillige Anwendung von Anforderungen für KI-Systeme abzielen, die nicht als hochriskant eingestuft sind. Diese Anforderungen basieren auf technischen Spezifikationen und Lösungen, die geeignet sind, die Einhaltung sicherzustellen.
  • Umfassendere Anforderungen: Die Kommission und das Board sollen auch Verhaltenskodizes fördern, die sich mit Aspekten wie Umweltverträglichkeit, Barrierefreiheit für Menschen mit Behinderungen, Beteiligung der Interessengruppen an der Gestaltung und Entwicklung von KI-Systemen sowie der Vielfalt der Entwicklungsteams befassen.
  • Einbeziehung von Interessengruppen: Verhaltenskodizes können von einzelnen Anbietern von KI-Systemen oder von Organisationen, die sie vertreten, erstellt werden, wobei auch Nutzer und andere interessierte Parteien einbezogen werden können. Diese Kodizes können mehrere KI-Systeme abdecken, wenn die beabsichtigten Zwecke dieser Systeme ähnlich sind.
  • Berücksichtigung spezifischer Interessen: Bei der Förderung und Unterstützung der Erstellung von Verhaltenskodizes sollen die spezifischen Interessen und Bedürfnisse von kleinen Anbietern und Start-ups besonders berücksichtigt werden.
Darüber hinaus stärkt eine solche Richtlinie das Vertrauen in den verantwortungsvollen Umgang mit KI-Tools im Unternehmen, fördert Transparenz und zeigt, dass sich das Unternehmen der möglichen Risiken bewusst ist. Die Auseinandersetzung mit ethischen Überlegungen und den Auswirkungen der KI-Nutzung auf Gesellschaft und Umwelt unterstützt die Verfolgung von ESG-Zielen und hilft, den Herausforderungen im Zusammenhang mit KI, wie Missbrauch, Manipulation und Diskriminierung, zu begegnen.

21.5.2 Empirische Erkenntnisse und Kritik

Ethik wird im Kontext von KI-Governance zunehmend wichtig. 58 % der Organisationen messen dem ethischen Umgang mit KI große Bedeutung bei, wobei diese in größeren Unternehmen wichtiger ist. Nur 43 % haben Ethikrichtlinien eingeführt und überwachen diese regelmäßig. Bias-Kontrollen erfolgen meist automatisiert, weniger als die Hälfte nutzt Richtlinien und Schulungen (IDG Research Services, 2023).
In den letzten Jahren wurden verschiedene Verantwortlichkeitsmechanismen zur Förderung eines verantwortungsvollen Designs, Entwickelns und Nutzens von KI vorgestellt. Ein Artikel zeigt, dass nur wenige Leitlinien verpflichtende Praktiken, definierte Verantwortliche und hinreichend erläuterte Werte enthalten. Daher werden sie oft als unwirksames Marketing-Instrument oder Greenwashing kritisiert (Henriksen et al., 2021). Zwar versuchen Leitlinien, die Lücke zwischen ethischen Prinzipien und ingenieurwissenschaftlicher Praxis zu schließen (translation gap). Unklare Umsetzungsmethoden (implementation gap) und Verantwortlichkeiten (accountability gap) bleiben Entwicklern jedoch als zentrale Hürden erhalten (University of Copenhagen DIKU et al., 2021).
Eine Studie aus 2023 zeigt ein hohes Engagement in der KI-Governance, aber keine Maßnahme wird von einer Mehrheit der Unternehmen umgesetzt. Spezifische Verantwortliche sind essenziell, wobei CIOs, CTOs und CDOs dies betonen, jedoch in 44 % der Fälle dieser Ansatz nicht verfolgt wird. IT-Fachkräfte fokussieren sich auf Datenmanagement und Risikobewertung, während Führungskräfte die Transparenz betonen. Kontrollmechanismen wie Überwachung und Auditierung von KI-Systemen erhalten weniger Zustimmung (IDG Research Services, 2023). Die Herausforderung bleibt, Prinzipien in die praktische Umsetzung zu überführen (Futurium, 2024). Es gibt zahlreiche normative Unklarheiten zwischen ethischen Prinzipien und Handlungsempfehlungen; auf der anderen Seite ergeben sich Chancen, dass Unternehmen sich auf der Mesoebene vom Markt differenzieren können.

21.5.3 Ethical Impact and Risk Assessment

Ethical Impact Assessments (EIAs) sind systematische Verfahren zur Bewertung und Identifikation der ethischen Auswirkungen und Risiken, die mit der Entwicklung, Einführung oder Nutzung einer Technologie, eines Produkts oder eines Dienstes verbunden sind. Sie zielen darauf ab, ethische Bedenken proaktiv zu adressieren, bevor neue Technologien negative Konsequenzen für Individuen oder Gesellschaften hervorrufen können. EIAs sind Teil eines umfassenderen Rahmens der Technikfolgenabschätzung und Ethik in der Technologiegestaltung. Ein Paper von Weidinger et al. (2021) zielt beispielsweise darauf ab, die Risikolandschaft, die mit großangelegten Sprachmodellen (LMs) verbunden ist, zu strukturieren.
Der Prozess eines Ethical Impact Assessments umfasst typischerweise folgende Schritte:
  • Definition des Geltungsbereichs: Festlegung der Technologie, des Projekts oder des Prozesses, der bewertet werden soll, und der spezifischen ethischen Dimensionen, die berücksichtigt werden müssen
  • Stakeholder-Analyse: Identifikation und Einbeziehung der verschiedenen Interessengruppen, die von der Technologie betroffen sein könnten, einschließlich Endnutzer, Gemeinschaften, Angestellte, Partner und die breitere Gesellschaft
  • Ermittlung ethischer Risiken und Auswirkungen: Analyse, wie die Technologie ethische Prinzipien wie Fairness, Autonomie, Datenschutz, Sicherheit und Gerechtigkeit beeinflussen könnte
  • Bewertung und Priorisierung: Einschätzung der Schwere und Wahrscheinlichkeit der identifizierten ethischen Risiken und Auswirkungen, um Prioritäten für die Adressierung zu setzen
  • Entwicklung von Maßnahmen: Erarbeitung von Strategien und Maßnahmen zur Minimierung negativer ethischer Auswirkungen, zur Verstärkung positiver Effekte und zur Einhaltung ethischer Standards
  • Implementierung und Überwachung: Umsetzung der entwickelten Maßnahmen und kontinuierliche Überwachung der Technologie auf unerwartete oder unerwünschte ethische Auswirkungen
  • Berichterstattung und Überprüfung: Dokumentation der Ergebnisse und Prozesse des EIAs sowie regelmäßige Überprüfung, um sicherzustellen, dass die ethischen Standards im Laufe der Zeit aufrechterhalten und angepasst werden
EIAs helfen Organisationen, ethische Verantwortung zu übernehmen und das Vertrauen der Öffentlichkeit und Stakeholder zu stärken, indem sie zeigen, dass mögliche ethische und soziale Auswirkungen sorgfältig berücksichtigt und gesteuert werden. Sie sind besonders relevant in Bereichen wie der Künstlichen Intelligenz, Biotechnologie und digitalen Innovation, wo neue Technologien tiefgreifende Auswirkungen auf die Gesellschaft haben können.
Die Risikobewertung sollte u. a. die vom Fraunhofer IAO empfohlenen Punkte berücksichtigen (Kutzias et al., 2023; Bitkom, 2024). So ist z. B. zu klären, welche Datensätze für die Entwicklung bzw. das Training der KI genutzt werden oder ob Trainingsdaten gegebenenfalls gesondert auf dem Markt für Trainingsdatensätze beschafft werden können oder sollten. Ferner ist im Rahmen einer Risikobewertung zu prüfen, welche Datensätze im anschließenden Praxisbetrieb verarbeitet werden und welche rechtlichen Rahmenbedingungen dabei beachtet werden müssen.

21.5.4 Vier Handlungsempfehlungen einer Responsible AI Governance

In einem aktuellen Beitrag aus dem Harvard Business Review schlagen Wade und Yokoi (2024) aufgrund von mehreren untersuchten Praxisbeispielen führender internationaler Unternehmen wie der Deutschen Telekom vier Maßnahmen einer Responsible AI Governance vor:
  • Übersetzen hochrangiger Prinzipien in praktische Anleitungen: Viele Organisationen erstellen eine KI-Ethikcharta, kämpfen jedoch damit, diese in den Alltag zu integrieren. Praktische Ressourcen sind entscheidend. Die Deutsche Telekom hat ihre abstrakten Prinzipien in konkrete Richtlinien übersetzt, die Best Practices und konkrete Handlungsschritte für die Entwicklung von KI-Projekten enthalten. Ähnlich hat Thomson Reuters ihre Daten- und KI-Ethikprinzipien in ein umfassendes Governance-Programm überführt.
  • Integrieren ethischer Überlegungen in die KI-Design- und Entwicklungsprozesse: Ethische Bedenken sollten proaktiv in die Entwicklungsphase von KI-Projekten eingebunden werden. Organisationen mit starker Datenverwaltung, wie CaixaBank, nutzen bestehende Datenschutzprozesse, um zusätzliche KI-Ethikprinzipien zu integrieren. Dies hilft, regulatorische Anforderungen zu erfüllen und ethische Probleme frühzeitig zu adressieren.
  • Kalibrieren von KI-Lösungen als Reaktion auf lokale Bedingungen und sich ändernde Technologien: Kontinuierliche Überwachung ist notwendig um sicherzustellen, dass KI-Lösungen den realen Anforderungen entsprechen. Organisationen sollten die Verantwortung für die Überwachung auf verschiedene Teams verteilen und risikoreiche Anwendungsfälle priorisieren. Investitionen in Zeit und Ressourcen sind unerlässlich, um die Relevanz und ethische Integrität von KI-Lösungen zu gewährleisten.
  • Verbreiten von Praktiken und Erkenntnissen in der gesamten Organisation: Eine Lern- und Austauschumgebung fördert das Bewusstsein und befähigt Mitarbeiter zur verantwortungsvollen KI-Entwicklung. Das „AI Collective“ von Bristol-Myers Squibb ist ein Beispiel für eine selbstorganisierte Gemeinschaft, die regelmäßig Einblicke und Ideen austauscht. Organisationen sollten praktische Ressourcen und Schulungen bereitstellen, um verantwortungsvolle KI-Praktiken in der gesamten Organisation zu verbreiten und anzupassen.

21.5.5 Gute Unternehmensbeispiele für Verhaltenskodizes aus der CDR-Initiative des BMUV

Neben den Ausführungen aus dem EU AI Act wurden von der Europäischen Union Ethikleitlinien für eine vertrauenswürdige KI formuliert (European Union, 2019, S. 5). Ziel der vorliegenden Leitlinien ist die Förderung einer vertrauenswürdigen KI. Eine vertrauenswürdige KI zeichnet sich durch drei Komponenten aus, die während des gesamten Lebenszyklus des Systems erfüllt sein sollten:
  • Sie sollte rechtmäßig sein und somit alle anwendbaren Gesetze und Bestimmungen einhalten,
  • sie sollte ethisch sein und somit die Einhaltung ethischer Grundsätze und Werte garantieren und
  • sie sollte robust sein, und zwar sowohl in technischer als auch sozialer Hinsicht, da KI-Systeme selbst bei guten Absichten unbeabsichtigten Schaden anrichten können.
Jede Komponente an sich ist notwendig, jedoch nicht ausreichend, um das Ziel einer vertrauenswürdigen KI zu erreichen. Idealerweise wirken alle drei Komponenten harmonisch zusammen und überlappen sich in ihrer Funktionsweise. Sollte es in der Praxis zu Spannungen zwischen diesen Komponenten kommen, sollte die Gesellschaft daran arbeiten, sie in Einklang zu bringen. Der Ansatz der Explainable AI (XAI) zielt darauf ab, Entscheidungen Künstlicher Intelligenz transparent und erklärbar zu machen, was insbesondere für Hochrisikosysteme unter dem EU AI Act relevant ist. Bei generativer KI ist XAI besonders herausfordernd, weil diese auf statistischen Methoden und nicht auf festen Algorithmen beruht. Das macht es oft schwer, die Entstehung spezifischer Ergebnisse aus den Eingabedaten zu erklären. Die wiederholte Eingabe desselben Prompts kann bei generativer KI unterschiedliche Ausgaben erzeugen. In einem Papier der Bitkom wird es gut auf den Punkt gebracht: „Um den ethischen Anforderungen gerecht zu werden, sollten Unternehmen Strukturen im Bereich Corporate Digital Responsibility etablieren, um eine unternehmensübergreifende KI-Strategie zu entwickeln. Die Berücksichtigung ethischer Aspekte bei der Anwendung von KI ist für Unternehmen essenziell, um Vertrauen zu stärken und sich Wettbewerbsvorteile zu sichern“ (2024, S. 62).
Die Mitglieder der CDR-Initiative des BMUV verstehen unter CDR eine Verantwortung, die über das rechtliche Maß hinausgeht oder auch eine besonders gute Umsetzung zeigt. Die Ethik-Leitlinien der Europäischen Kommission für eine vertrauenswürdige KI und die Prinzipien der CDR-Initiative teilen Gemeinsamkeiten in der Betonung ethischer Werte, Menschenzentrierung, Transparenz und Nachhaltigkeit. Unterschiede liegen in ihrem Anwendungsbereich: Während die EU-Leitlinien speziell auf Künstliche Intelligenz fokussieren, deckt der CDR-Kodex ein breiteres Spektrum digitaler Verantwortung ab, inklusive Datenmanagement und Inklusion. Beide setzen auf die Einbindung von Stakeholdern und die Förderung eines ethischen Rahmens; die CDR-Initiative betont darüber hinaus die Rolle von Unternehmen im digitalen Wandel.​
In der CDR-Initiative des BMUV gibt es bereits einige Vorreiter-Unternehmen, die an diesen konkreten Fragestellungen arbeiten. Aus Vertraulichkeitsgründen sind im Fortgang nur die öffentlich zugänglichen Quellen genannt, über die die Unternehmen auch in ihrem CDR-Kodex berichten. Hervorzuheben sind in diesem Zusammenhang die ING-DiBa mit dem Model Risk Management Framework (2023, S. 11 ff.), die Deutsche Telekom mit den KI-Leitlinien (2023, S. 10), die Otto Group mit den Leitlinien zum verantwortungsvollen Umgang mit Künstlicher Intelligenz (2023, S. 24) und die Telefónica Deutschland mit der Ethik der Künstlichen Intelligenz (2023, S. 13).
Das Familienunternehmen Merck AG gilt als eines der führenden Unternehmen mit Blick auf eine funktionierenden AI Governance (2024). Das Merck Digital Ethics Advisory Panel (DEAP) ist ein unabhängiges Beratungsgremium, das ethische Fragestellungen behandelt und sich aus bekannten Wissenschaftlerinnen und Industrieexperten zusammensetzt. Zum anderen wurde ein Code of Digital Ethics (CoDE) entwickelt, ein prinzipienbasiertes Framework, welches als Kompass dient und ethische Assessments ermöglicht:
  • Merck Digital Ethics Advisory Panel (DEAP): Merck hat 2021 das Digital Ethics Advisory Panel (DEAP) ins Leben gerufen, das sich mit komplexen ethischen Fragen rund um digitale Technologien befasst. Dieses Gremium ergänzt die Arbeit des Merck Ethics Advisory Panel for Science and Technology (MEAP), das bereits 2010 gegründet wurde.
  • Code of Digital Ethics (CoDE): Merck hat einen Code of Digital Ethics (CoDE) entwickelt, der als Leitfaden für seine digitalen Geschäftsmodelle dient. Der CoDE basiert auf fünf Kernprinzipien: Gerechtigkeit, Autonomie, Wohltätigkeit, Nichtschädigung und Transparenz. Diese Prinzipien bieten eine klare Struktur für die Bewertung ethischer Fragen​.
  • Principle at Risk Assessment PaRA: PaRA ist ein formelles Ethikbewertungstool, das auf dem CoDE basiert. Es wird verwendet, um beispielsweise Geschäftspraktiken oder neue Produkte in einer frühen Entwicklungsphase zu analysieren. Die Bewertung durch das Tool wird vom DEAP überprüft, um das Digital Ethics Office bei der Analyse von Problemstellungen zu unterstützen. Es geht im Kern darum zu prüfen, ob Prinzipien „at risk“ sind.

21.6 Der Game Changer: Primärtugenden im digitalen Raum – die Mikroebene

21.6.1 Die Primärqualifikationen: Technische Kompetenzen und Digital Literacy

Die erfolgreiche digitale Transformation durch Künstliche Intelligenz wird von jedem Einzelnen vorangetrieben. Personen, die sich dem entziehen, werden Wege finden, die Regulierungen auf Makroebene zu umgehen und die von Unternehmen freiwillig implementierten Governance-Mechanismen, wie Verhaltenskodizes auf Mesoebene, zu unterlaufen. Wer hingegen die Bedeutung der Regulierungen versteht und akzeptiert, wird aktiv seinen eigenen Beitrag leisten. Aber er muss auch dazu in die Lage versetzt werden. Dazu bedarf es mindestens zweier Primärqualifikationen bzw. Kernkompetenzen: technische Kompetenz und digitale Medienkompetenz.
Technische Kompetenz
  • Softwareentwicklung und Programmierung: Kenntnisse in Programmiersprachen und Entwicklungsframeworks sind grundlegend, um digitale Lösungen zu erstellen und anzupassen.
  • Datenanalyse und Data Science: Die Fähigkeit, große Datenmengen zu analysieren, Muster zu erkennen und datengetriebene Entscheidungen zu treffen, ist für die digitale Transformation entscheidend.
  • Künstliche Intelligenz und maschinelles Lernen: Ein Verständnis der Prinzipien und Techniken hinter KI und maschinellem Lernen ermöglicht die Entwicklung intelligenter Systeme und Prozesse.
  • Cybersicherheit: Wissen über Sicherheitsprotokolle, Datenschutzbestimmungen und Bedrohungsabwehr ist essenziell, um Daten und Systeme zu schützen.
Digitale Kompetenz
  • Verständnis digitaler Technologien: Ein breites Verständnis der Möglichkeiten und Grenzen verschiedener Technologien, wie Cloud Computing, Blockchain, IoT (Internet of Things) etc.
  • Digitale Medienkompetenz: Fähigkeiten im Umgang mit digitalen Medien und Kommunikationstools zur effektiven Verbreitung von Informationen und zur Förderung der Zusammenarbeit

21.6.2 Die Renaissance der Tugenden

Darüber hinaus sollte aber auch eine adäquate Haltung vorhanden sein. Die Tugendethik ist eine philosophische Strömung, die sich mit der Frage beschäftigt, was ein gutes oder tugendhaftes Leben ausmacht. Im Zentrum der Tugendethik steht die Idee, dass moralisch richtiges Handeln weniger von der Befolgung spezifischer Regeln oder dem Erreichen bestimmter Ergebnisse abhängt, sondern vielmehr von den Charaktereigenschaften und Tugenden der handelnden Person. Ein tugendhaftes Leben führt demnach zu menschlichem Wohlergehen und Glück (Eudaimonie). Betrachtet man Tugenden im Kontext von Wirtschaft, so sind sie i. d. R. mit Menschen verbunden (z. B. Sison et al., 2017). Es gibt aber auch Ansätze von korporativen Tugenden (corporate virtues) (Solomon, 1999; Gowri, 2007). Übertragen auf den digitalen Kontext finden sich in der Literatur bereits ähnliche Forderungen: „Moral agents – users, designers, marketers, managers, and regulators – must engage in shared deliberations to assess the goods and evils that arise from human interaction with AI systems and then discern how to adapt the required virtues for practices and practitioners to flourish“ (García-Ruiz, 2025, S. 155).
MacIntyre geht von der Grundannahme aus, dass die menschliche Entwicklung eine Entwicklung von Tugenden ist (2007). Dabei scheint die Tatsache, dass die digitale Transformation alle Lebens-, Wirtschafts- und Gesellschaftsbereiche gleichermaßen durchdringt, zu bedeuten, dass Technik die Tugendhaftigkeit der jeweiligen Berufe individuell stärken muss. So benötigt der Arzt bzw. die Ärztin Mitgefühl, also Einfühlungsvermögen und Fürsorge für das Wohlergehen der Patienten, sowie Integrität, also Ehrlichkeit und ethisches Handeln, insbesondere im Umgang mit Patienteninformationen und medizinischen Entscheidungen. Ein Lehrer bzw. eine Lehrerin hingegen benötigt Geduld, also die Fähigkeit, ruhig und verständnisvoll auf unterschiedliche Lerngeschwindigkeiten und -stile der Schüler einzugehen, und Begeisterungsfähigkeit, also die Motivation und Leidenschaft für das Fach und die Fähigkeit, diese Begeisterung auf die Schüler zu übertragen. Und schließlich legt ein Richter bzw. eine Richterin Wert auf Unparteilichkeit, also die gerechte und vorurteilsfreie Urteilsfindung basierend auf Fakten und Gesetzen, oder auch Weisheit, also die Fähigkeit, komplexe Sachverhalte zu verstehen und Urteile zu fällen, die langfristige Auswirkungen berücksichtigen. Folglich muss die Ausgestaltung der Technik auf die menschliche Entwicklungsfähigkeit in den unterschiedlichen Berufen im Zentrum stehen. Dies spielt zwar auch für die Industrie eine Rolle, vielmehr wirkt es aber für das Handwerk, die Wissenschaft und die künstlerischen Berufe.
Vorgeschaltet ist also zunächst die Frage zu klären, ob es sich bei einer Künstlichen Intelligenz um moralische Agenten handelt oder nicht. Ein erstes Lager argumentiert, bei KI-Systemen handle es sich in der Tat um artificial moral agents (Formosa & Ryan, 2021; Mabaso, 2021). Diesen müssen dann im besten Falle ethische Prinzipien und grundlegende Werte zugrunde gelegt werden. Es geht also um eine wertebasierte Programmierung Künstlicher Intelligenz, so dass sie richtige und gute Entscheidungen trifft (van de Poel, 2020; Wallach & Vallor, 2020; grundlegend Floridi & Sanders, 2004). Ethik wird damit frühzeitig adressiert; einige Autoren sprechen von einem ethics by design (Dignum, 2019).4
Ein zweites Lager widerspricht der Annahme, KI-Systeme seien moralische Agenten, und fordert, dass der Mensch letztlich als moralischer Agent über Tugenden die KI-Systeme beeinflussen solle (Bernáth, 2021; Sison & Redín, 2021). Hier wird die KI konsequent in den Dienst des Menschen gestellt mit dem Ziel, menschliche Gewohnheiten und den menschlichen Charakter zum Guten zu entwickeln und Schlechtes zu vermeiden (Curzer, 2018).

21.6.3 Digitale Primärtugenden im digitalen Zeitalter

Im Folgenden sollen die vier Primärtugenden der antiken Philosophie in den digitalen Raum übertragen werden.5 Darüber hinaus gibt es auch Ansätze, einzelne Tugenden stark zu machen, wie etwa honesty (Köbis et al., 2021), justice (Hagendorff, 2020) oder moral attention (Ratti & Graves, 2021). Primärtugenden sind grundlegende moralische Eigenschaften, die als zentral für ein tugendhaftes Leben angesehen werden. Sie bilden die Basis für moralisches Handeln und sind universell anerkannt. Die vier Primärtugenden sind:
  • Gerechtigkeit (dikaiosyne): Diese Tugend fordert Fairness und Gleichheit im Umgang mit anderen. Sie beinhaltet das Bestreben, jedem das ihm Zustehende zu geben und soziale Ungerechtigkeiten zu bekämpfen.
  • Weisheit (sophia): Weisheit ist die Fähigkeit, Wissen und Erfahrung zu nutzen, um kluge Entscheidungen zu treffen. Sie umfasst auch die Reflexion über die eigenen Handlungen und deren Konsequenzen.
  • Tapferkeit (andreía): Tapferkeit bedeutet Mut in schwierigen Situationen und das Eintreten für das Richtige, auch wenn es gefährlich oder unpopulär ist.
  • Mäßigung (sophrosyne): Diese Tugend steht für Selbstbeherrschung und das Finden des richtigen Maßes in allen Dingen. Sie hilft, Extreme zu vermeiden und ein ausgewogenes Leben zu führen.
Neben den Primärtugenden gibt es auch Sekundärtugenden, die zwar moralisch neutral sind, aber gesellschaftlich geschätzt werden. Sie fördern das reibungslose Funktionieren innerhalb einer Gemeinschaft oder Gesellschaft. Dazu gehören beispielsweise Pünktlichkeit, Ordnung, Fleiß, Disziplin, Zuverlässigkeit und Höflichkeit.
Die Digitalisierung verändert nicht nur die Art und Weise, wie wir arbeiten und kommunizieren, sondern auch, wie wir Tugenden leben und einüben. Die Übertragung antiker Tugenden in den digitalen Raum ist eine Herausforderung, aber auch eine Notwendigkeit. Hier einige Beispiele, wie Tugenden im digitalen Kontext gestärkt werden können:
  • Digitale Gerechtigkeit (psifiakí dikaiosýni): Zugangsgerechtigkeit zu digitalen Ressourcen und Technologien sollte unabhängig vom sozialen Status gewährleistet sein. Dazu gehört auch die Förderung inklusiver und vielfältiger digitaler Gemeinschaften sowie klarer und transparenter Datenschutzrichtlinien.
  • Digitale Weisheit (psifiakí sophia): Digitale Weisheit umfasst das Aneignen und kritische Bewerten von Informationen, das Nachdenken über die Rolle und den Einfluss digitaler Technologien sowie die Reflexion über deren ethische Implikationen.
  • Digitale Tapferkeit (psifiakí andreía): Diese Tugend zeigt sich im Mut, sich gegen Cybermobbing und Online-Belästigung zu wehren, und in der Verteidigung derjenigen, die davon betroffen sind. Es erfordert auch den Mut, Falschinformationen zu hinterfragen und zu widerlegen.
  • Digitale Mäßigung (psifiakí engrátia/sophrosyne): Digitale Mäßigung bedeutet, die Fähigkeit zu entwickeln, Begierden zu kontrollieren, nicht den unmittelbaren Verlockungen zu folgen und in Gedanken und Handlungen umsichtig zu sein.
Aristoteles betont, dass Tugend die Mitte zwischen zwei Lastern ist, von denen das eine durch Übermaß und das andere durch Mangel bestimmt ist. Diese Weisheit ist heute aktueller denn je. Die Kunst liegt darin, die Balance zu finden und in einem oft extremen digitalen Umfeld die goldene Mitte zu wahren. Die Digitalisierung bietet nicht nur Herausforderungen, sondern auch Möglichkeiten zur Entwicklung und Stärkung beispielsweise von Future Skills (Stifterverband für die Deutsche Wissenschaft, 2018, 2021) oder, wie hier vorgeschlagen, Primärqualifikationen und Primärtugenden.

21.7 Fazit

Die Kombination von Nachhaltigkeit und Digitalisierung, bekannt als Zwillingstransformation, bietet immense Chancen und stellt zugleich komplexe Herausforderungen dar. Die Einführung der EU KI-Verordnung markiert auf der Makroebene einen bedeutenden Schritt zur Regulierung von KI, indem sie ethische und rechtliche Standards setzt, jedoch noch weitere Verbesserungen benötigt. Unternehmen spielen auf der Mesoebene eine zentrale Rolle, indem sie durch Corporate Digital Responsibility freiwillige Verhaltenskodizes implementieren und sich zu ethischen Standards bekennen, die über gesetzliche Anforderungen hinausgehen. Auf individueller Mikroebene sind digitale Primärtugenden entscheidend, um die ethische Nutzung von Technologie zu gewährleisten und eine nachhaltige digitale Transformation zu fördern. Letztlich erfordert eine erfolgreiche Transformation die Zusammenarbeit von Politik, Wirtschaft und Gesellschaft sowie die ständige Auseinandersetzung mit ethischen Fragen, um eine verantwortungsvolle Zukunft zu gestalten.
Die Zukunft der KI-Ethik sieht vor, dass Unternehmen, Forschungseinrichtungen und politische Entscheidungsträger weiterhin eng zusammenarbeiten müssen, um Richtlinien und Standards zu entwickeln, die die verantwortungsvolle Nutzung von KI fördern. Die Implementierung ethischer Prinzipien in allen Phasen der KI-Entwicklung, von der Konzeption über die Gestaltung bis hin zum Einsatz, ist entscheidend, um Vertrauen aufzubauen und die Akzeptanz dieser Technologien zu erhöhen. Darüber hinaus wird die Rolle der Bildung hervorgehoben, um ein tieferes Verständnis ethischer Grundsätze zu fördern und künftige Generationen auf die Herausforderungen und Möglichkeiten vorzubereiten, die KI bietet.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Download
Title
Verantwortliche KI-Governance
Author
Alexander Brink
Copyright Year
2026
Publisher
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-71567-3_21
1
Die Abschn. 21.3.2 und 21.3.3 meines Kapitels geben weitgehend meine Ausführungen der Abschnitte 58:2 und 58:3 in: Brink, A. (2022b) wieder.
 
2
Siehe hierzu ausführlich Brink, 2022b.
 
3
Die EU KI-Verordnung wird ausführlich im Kap. 23 vorgestellt und kommentiert.
 
4
In diesem Kontext lassen sich gegenwärtig vier Strömungen festhalten: (1) responsible research and innovation (vgl. Owen et al., 2012), (2) participatory design (vgl. Spinuzzi, 2005), (3) value-sensitive design (vgl. Friedman et al., 2002) und (4) design justice (vgl. Costanza-Chock, 2020).
 
5
Es ließe sich auch überlegen, die vier Primärtugenden um die drei theologischen bzw. christlichen Tugenden Glaube, Liebe und Hoffnung zu ergänzen.
 
go back to reference Accenture. (2021). The European double up: A twin strategy that will strengthen competitiveness. https://www.accenture.com/content/dam/accenture/final/a-com-migration/r3-3/pdf/pdf-144/accenture-the-european-double-up.pdf#zoom=50. Zugegriffen am 24.06.2024.
go back to reference Altimeter. (2015). The trust imperative. A framework for ethical data use. Altimeter.
go back to reference Anderson, M., & Anderson, S. L. (2007). Machine ethics. Creating an ethical intelligent agent. AI Magazine, 28(4), 15–26.
go back to reference Bergmann, F. (2019). Neue Arbeit, neue Kultur. Freiburg im Breisgau. Arbor.
go back to reference Bernáth, L. (2021). Can autonomous agents without phenomenal consciousness be morally responsible? Philosophy & Technology, 34(4), 1363–1382.CrossRef
go back to reference Bitkom. (2024). Generative KI im Unternehmen. Rechtliche Fragen zum Einsatz generativer Künstlicher Intelligenz im Unternehmen. https://www.bitkom.org/sites/main/files/2024-02/Bitkom-Leitfaden-Generative-KI-im-Unternehmen.pdf. Zugegriffen am 24.06.2024.
go back to reference Brennen, S., & Kreiss, D. (2014). Culture Digitally. https://culturedigitally.org/2014/09/digitalization-and-digitization/. Zugegriffen am 24.06.2024.
go back to reference Brink, A. (2022a). Die Zwillingstransformation. Vier Optionen, wie Nachhaltigkeit und Digitalisierung zusammengedacht werden können. In M. Schmidt (Hrsg.), Kompendium Digitale Transformation. Perspektiven auf einen gesellschaftlichen Umbruch. Velbert/UVG. https://kompendium.pressbooks.com/chapter/die-zwillingstransformation/ und https://orientierungslust.de/die-zwillingstransformation/. Zugegriffen im 24. Juni 2022.
go back to reference Brink, A. (2022b). Digitalethik. In M. S. Aßländer (Hrsg.), Handbuch Wirtschaftsethik (2. überarb. Aufl., S. 615–624). Metzler.
go back to reference Cooper, T.; Siu, J., & Wei, K. (2015). Corporate digital responsibility. Doing well by doing good. https://www.criticaleye.com/inspiring/insights-servfile.cfm?id=4431. Zugegriffen am 24.06.2024.
go back to reference Costanza-Chock, S. (2020). Design Justice. Community-led practices to build the worlds we need. MIT Press.CrossRef
go back to reference Crawford, K. (2021). Atlas of AI. Yale University Press.CrossRef
go back to reference Curzer, H. J. (2018). Yesterday’s virtue ethicists meet tomorrow’s high tech: A critical response to technology and the virtues by Shannon Vallor. Philosophy & Technology, 31(2), 283–292.CrossRef
go back to reference Datenethikkommission. (Hrsg.). (2019). Gutachten der Datenethikkommission. Bundesministerium des Innern, für Bau und Heimat.
go back to reference Deutsche Telekom AG. (2023). CDR-Kodex Maßnahmenbericht.
go back to reference Dignum, V. (2019). Responsible artificial intelligence: How to develop and use AI in a responsible way. Cham.CrossRef
go back to reference Esselmann, F., & Brink, A. (2016). Corporate Digital Responsibility. Den digitalen Wandel von Unternehmen und Gesellschaft erfolgreich gestalten. Spektrum. Das Wissenschaftsmagazin der Universität Bayreuth, 12(1), 38–41.
go back to reference Europäisches Parlament. (2024). Gesetz über Künstliche Intelligenz. Legislative Entschließung des Europäischen Parlaments vom 13. März 2024 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)). https://www.europarl.europa.eu/RegData/seance_pleniere/textes_adoptes/definitif/2024/0313/0138/P9_TA(2024)0138_DE.pdf. Zugegriffen am 24.06.2024.
go back to reference European Union. (2019). Ethics Guidelines for Trustworthy AI. https://www.europarl.europa.eu/cmsdata/196377/AI%20HLEG_Ethics%20Guidelines%20for%20Trustworthy%20AI.pdf. Zugegriffen am 24.06.2024.
go back to reference Floridi, L., & Sanders, J. W. (2004). On the morality of artificial agents. Minds and Machines, 14(3), 349–379.
go back to reference Formosa, P., & Ryan, M. (2021). Making moral machines: Why we need artificial moral agents. AI & Society, 36(3), 839–851.CrossRef
go back to reference Friedman, B., et al. (2002). Value sensitive design: Theory and methods (University of Washington School of Computer Science and Engineering Technical Report No. 02-12-01). https://faculty.washington.edu/pkahn/articles/vsd-theory-methods-tr.pdf. Zugegriffen am 24.06.2024.
go back to reference Future of Life Institute. (2024). Zusammenfassung des AI-Gesetzes auf hoher Ebene. https://artificialintelligenceact.eu/de/high-level-summary/. Zugegriffen am 24.06.2024.
go back to reference García-Ruiz, P. (2025). Governing technology: A MacIntyrean approach to the ethics of artificial intelligence. In D. M. Redín et al. (Hrsg.), MacIntyre and the practice of governing institutions (S. 143–158). Springer.
go back to reference Gowri, A. (2007). On corporate virtue. Journal of Business Ethics, 70(4), 391–400.CrossRef
go back to reference Hagendorff, T. (2020). AI virtues: The missing link in putting AI ethics into practice. Minds and Machines, 30(1), 99–121.CrossRef
go back to reference Henriksen, A., et al. (2021, Juli). Situated accountability: Ethical principles, certification standards, and explanation methods in Applied AI, AIES ’21. Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society. (S. 574–585). https://dl.acm.org/doi/10.1145/3461702.3462564. Zugegriffen am 24.06.2024.
go back to reference Herweijer, C., et al. (2020). How AI can enable a sustainable future. PwC. www.pwc.de/de/nachhaltigkeit/how-ai-can-enable-a-sustainable-future.pdf. Zugegriffen am 24.06.2024.
go back to reference IDG Research Services. (2023). Applied AI 2023. IDG Research Services. https://www.lufthansa-industry-solutions.com/fileadmin/user_upload/dokumente/idg-studie-applied-ai-2023-lhind.pdf. Zugegriffen am 24.06.2024.
go back to reference ING-Diba AG. (2023). CDR-Kodex Maßnahmenbericht.
go back to reference Kirchschläger, P. G. (2021). Digital transformation and ethics: Ethical considerations on the robotization and automation of society and the economy and the use of artificial intelligence. Baden.CrossRef
go back to reference Köbis, N., et al. (2021). Bad machines corrupt good morals. Nature Human Behaviour, 5(6), 679–685.CrossRef
go back to reference Lin, P., et al. (Hrsg.). (2017). Robot Ethics 2.0. Oxford University Press.
go back to reference Mabaso, B. A. (2021). Computationally rational agents can be moral agents. Ethics and Information Technology, 23(2), 137–145.CrossRef
go back to reference MacIntyre, A. (2007). After virtue: A study in moral theory. University of Notre Dame Press.
go back to reference Manzeschke, A., & Brink, A. (2020). Ethik der Digitalisierung in der Industrie. In W. Frenz (Hrsg.), Handbuch Industrie 4.0: Recht, Technik, Gesellschaft (S. 1383–1405). Springer.CrossRef
go back to reference Martin, K. (2022). Algorithmic bias and corporate responsibility: How companies hide behind the false veil of the technological imperative. In K. Martin (Hrsg.), Ethics of data and analytics (S. 36–50). Taylor & Francis.
go back to reference mind digital. (2024). Doppelte Transformation im Mittelstand. Digital + Nachhaltig = Zukunft. 4. Studie Mittelstand „Digitale Vorreiter im Mittelstand“.
go back to reference Nida-Rümelin, J. (2018). Digitaler Humanismus: Eine Ethik für das Zeitalter der künstlichen Intelligenz. Piper.
go back to reference Otto (GmbH & Co KG). (2023). CDR-Kodex Maßnahmenbericht.
go back to reference Owen, R., et al. (2012). Responsible research and innovation: From science in society to science for society, with society. Science and Public Policy, 39(6), 751–760.CrossRef
go back to reference Porter, M. E., & Kramer, M. R. (2011). Creating shared value. How to reinvent capitalism and unleash a wave of innovation and growth. Harvard Business Review, 89(1/2), 1–17.
go back to reference PwC. (2020). Digitale Ethik. Orientierung, Werte und Haltung für eine Digitale Welt. https://www.pwc.de/de/managementberatung/pwc-digitale-ethik-white-paper.pdf. Zugegriffen am 24.06.2024.
go back to reference PwC. (2024). Fokus Nachhaltigkeit. Net-Zero-Transformation in vollem Gange. https://www.pwc.de/de/nachhaltigkeit/fokus-nachhaltigkeit-net-zero-transformation-in-vollem-gange.html. Zugegriffen am 24.06.2024.
go back to reference Quaing, J., & Fink, J. (2022). nachhaltig.digital Monitor 2021. nachhaltig.digital.
go back to reference Quaing, J., et al. (2023). Doppelte Transformation gestalten – Praxisleitfaden Nachhaltigkeit und Digitalisierung. Osnabrück.CrossRef
go back to reference Ratti, E., & Graves, M. (2021). Cultivating moral attention: A virtue-oriented approach to responsible data science in healthcare. Philosophy & Technology, 34(4), 1819–1846.CrossRef
go back to reference Risknow. (2024). Article 69 – Codes of conduct. https://www.aiact-info.eu/article-69-codes-of-conduct/. Zugegriffen am 24.06.2024.
go back to reference Schnetzer, S., et al. (2024). Trendstudie „Jugend in Deutschland – Verantwortung für die Zukunft? Ja, aber“. Verlag Simon Schnetzer.
go back to reference Sison, A. J. G., & Redín, D. M. (2021). A neo-aristotelian perspective on the need for artificial moral agents. AI & Society, 38(1), 47–65.CrossRef
go back to reference Sison, A. J. G., et al. (Hrsg.). (2017). Handbook of virtue ethics in business and management. Springer.
go back to reference Solomon, R. C. (1999). A better way to think about business: How personal integrity leads to corporate success. Oxford University Press.CrossRef
go back to reference Spiekermann, S. (2019). Digitale Ethik. Ein Wertesystem für das 21. Jahrhundert. Droemer.
go back to reference Spinuzzi, C. (2005). The methodology of participatory design. Technical Communication, 52(2), 163–174.
go back to reference Stifterverband für die Deutsche Wissenschaft e.V. (Hrsg.) (2018). Future Skills: Welche Kompetenzen in Deutschland fehlen. Berlin, Atelier Hauer + Dörfler. https://stifterverband.org/medien/future-skills-welche-kompetenzen-in-deutschland-fehlen. Zugegriffen am 24.06.2024.
go back to reference Stifterverband für die Deutsche Wissenschaft e.V. (Hrsg.) (2021). Future Skills 2021. Atelier Hauer + Dörfler. https://www.stifterverband.org/medien/future-skills-2021. Zugegriffen am 24.06.2024.
go back to reference Stoecker, R., et al. (2011). Handbuch Angewandte Ethik. Metzler.CrossRef
go back to reference Telefónica Deutschland Holding AG. (2023). CDR-Kodex Maßnahmenbericht.
go back to reference Think digital. (2024). Artificial Intelligence Act. Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über Künstliche Intelligenz). https://eu-digitalstrategie.de/ai-act/. Zugegriffen am 24.06.2024.
go back to reference University of Copenhagen (DIKU), Association of Nordic Engineers (ANE), Data Ethics Think Do Tank (DataEthics.eu), Electrical and Electronics Engineers (IEEE). (2021). Addressing Ethical Dilemmas in AI: Listening to Engineers. https://nordicengineers.org/wp-content/uploads/2021/01/addressing-ethical-dilemmas-in-ai-listening-to-the-engineers.pdf. Zugegriffen am 24.06.2024.
go back to reference Van de Poel, I. (2020). Embedding values in artificial intelligence AI systems. Minds and Machines, 30(3), 385–409.CrossRef
go back to reference Wade, M., & Yokoi, T. (2024). How to implement AI – responsibly. https://hbr.org/2024/05/how-to-implement-ai-responsibly?ab=HP-hero-featured-text-1. Zugegriffen am 24.06.2024.
go back to reference Wallach, W., & Vallor, S. (2020). Moral machines: From value alignment to embodied virtue. In S. M. Liao (Hrsg.), Ethics of Artificial Intelligence (S. 383–412). Oxford University Press.CrossRef
go back to reference Weidinger, L., et al. (2021). Ethical and social risks of harm from language models. Deep Mind. https://arxiv.org/pdf/2112.04359.pdf. Zugegriffen am 24.06.2024.
go back to reference Weizenbaum, J. (1976). Computer power and human reason: From judgment to calculation. W. H. Freeman and Company.
go back to reference Wiener, N. (1989). The human use of human beings. Cybernetics and Society.

Premium Partner

    Image Credits
    Neuer Inhalt/© ITandMEDIA, Nagarro GmbH/© Nagarro GmbH, AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, USU GmbH/© USU GmbH, Ferrari electronic AG/© Ferrari electronic AG