Skip to main content
main-content
Top

15-02-2022 | Compliance | Im Fokus | Article

Warum Künstliche Intelligenz Regulierung braucht

Author: Michaela Paefgen-Laß

4:30 min reading time
share
SHARE
print
PRINT
insite
SEARCH

KI-Technologien stellen Unternehmen und Entwicklerteams vor große Herausforderungen. Sie sind auf Standards, Transparenz und Aufklärung angewiesen. Fehlt das alles, geht Vertrauen verloren. Muss die KI vertrauenswürdig sein oder diejenigen, die mit ihr hantieren?

"Für Organisationen, die KI einsetzen, sollte das Ziel, verantwortungsvoll, vertrauenswürdig und rechtskonform zu sein, in ihrer Governance-, Risk- und Compliance-Strategie deutlich zum Ausdruck kommen". Das fordert Michael Mock, Co-Autor der Studie Management System Support for Trustworthy Artificial Intelligence des Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS). KI-Diagnoseverfahren in der Medizin verbessern die Früherkennung von Krankheiten und unterstützen die Therapieplanung. KI entscheidet über Kreditanfragen, bestimmt die Zukunft des autonomen Fahrens und erleichtert Aufgaben im privaten Bereich. 

Editor's recommendation

2021 | OriginalPaper | Chapter

Skizzierung einer vertrauensvollen künstlichen Intelligenz

Künstliche Intelligenz (KI) und damit verbundene ethische und rechtliche Fragestellungen sind in aller Munde. Vorrangig geht es darum, Sicherheit und Vertrauen zu schaffen, indem KI-Systeme möglichst transparent gestaltet werden sollen. 

Unternehmen vertrauen auf KI-Lösungen, um profitabler zu wirtschaften und Prozesse zu beschleunigen. Kurzum: Die Zukunftstechnologie Künstliche Intelligenz (KI) hat das Potenzial, den wirtschaftlichen und gesellschaftlichen Fortschritt maßgeblich voranzutreiben. Aber der Einsatz von KI ist nicht frei von Risiken, vor allem dann, wenn Unternehmen sich den verantwortungsvollen Umgang mit der intelligenten Technologie nicht zum Dauerauftrag gemacht haben.

Wer lässt sich vertrauenswürdige KI aufbauen?

"In der Wirtschaft ist die kommerzielle Bedeutung und Wissen um die Bias-Problematik angekommen, so dass mehr Anwendungen und ein bewussterer Umgang mit entsprechenden Daten und Modellen zu erwarten sind", schreibt Springer-Autor Sven Krüger in "Europa reguliert KI" (Seite 604). Eine Methode zum Aufbau von Vertrauen in KI ist der Nachweis der Konformität mit anerkannten Standards, insbesondere durch Zertifizierung. Viele Unternehmen und NGOs haben bereits eigene Richtlinien oder für vertrauenswürdige KI aufgestellt. 

Derzeit erarbeitet die Arbeitsgruppe der Normungsorganisationen International Organization for Standardization (ISO) und International Electrotechnical Commission (IEC) einen internationalen Standard für KI-Managementsysteme (AI Management Systems, AIMS). Im Auftrag von Microsoft hat das Fraunhofer IAIS den Arbeitsentwurf in der oben genannten Studie mit drei KI-Leitlinien vergleichen:

  • Proposal for AI Regulation der Europäischen Kommission Assessment 
  • List for Trustworthy AI der High-Level Expert Group on AI (HLEG)
  • AIC4-Katalog des Bundesamts für Sicherheit in der Informationstechnik (BSI)

Vertrauenswürdige KI schafft Akzeptanz

Das Fraunhofer IAIS überprüft mit der Forschungsarbeit die Rolle von Managementsystemen im Kontext vertrauenswürdiger KI. Die vorhandenen Leitlinien werden dem Entwurf gegenübergestellt und hinsichtlich ihrer organisatorischen und technischen Anforderungen verglichen. Das soll zeigen, inwieweit der AIMS-Entwurf geeignet ist, Unternehmen bei der Etablierung von Standards zu unterstützen, die ihnen die Entwicklung und Nutzung von KI-Technologien auf vertrauenswürdige Weise zu ermöglichen. Diese Art der Konformität und Zertifizierung, stärkt das Vertrauen in KI-Technologien sowie deren gesellschaftliche Akzeptanz, schreiben die Studienautoren.

Den AIMS-Entwurf bewerten sie als "solide Grundlage" für KI-Managementsysteme sowie als wichtigen und angemessenen Schritt Richtung vertrauenswürdiger KI. Die deutliche Unterscheidung zwischen der organisatorischen Perspektive und der Produktperspektive wird von den Autoren als Vorteil gegenüber den vorhandenen Leitlinien betont.

The analysis (... ) reveals that the AIMS draft is much more concise and advanced in formulating organizational requirements than the “other documents”, in particular regarding accountability and resources. We would recommend emphasizing this advantage of the AIMS Draft while making clear the more product-oriented issues are set out in detail in other upcoming standards of the ISO/IEC working group SC 42. 

Warum vertrauenswürdige KI Verantwortung verschiebt

Die in der Debatte um Künstliche Intelligenz strapazierten Formulierungen "vertrauenswürdige KI" oder"ethische Technik" hält Springer-Autor Sven Krüger für deplatziert und "unglücklich" gewählt. Er schreibt: "Sie weisen in die falsche Richtung einer Wahrnehmung, die davon ablenkt, dass KI selbst keine Verantwortung übernehmen wird und kein vertrauenswürdiger Akteur sein kann. Personen und Organisationen sind vertrauenswürdig und verantwortlich oder eben nicht." (Seite 600). Wer also trägt die Schuld, wenn es zu Verzerrungen kommt, weil ein Algorithmus einen Fehler gemacht und damit ein unerwünschtes, diskriminierendes Ergebnis erzeugt hat? Die Entwickler, die Nutzer oder der Algorithmus selbst?

Der gefürchtete Bias von KI-Systemen ist "bis zu einem gewissen Grad normal und kann reduziert werden", schreibt Krüger über KI und Verantwortung (Seite 374). Das Problem ist die Komplexität der Systeme und Geschwindigkeit mit der sie enorme Datenmengen verarbeiten. Vertrauenswürdige KI muss also nachvollziehbar gemacht werden. Krüger plädiert für die Explainable AI oder XAI als wünschenswerte Lösung. Der Begriff beschreibt eine transparente KI, die Prozesse der Datenverarbeitung und Entscheidungsfindung offenlegt. Weitere Möglichkeiten der Vertrauensbildung sind (Seite 377 ff):

  • Etablierung von Standards und die Pflicht zur Erfüllung von Zertifikaten
  • Lückenlose Transparenz der Datenwege
  • Protokollierung und Rückverfolgbarkeit von Ergebnissen
  • Nachvollziehbarkeit von Ergebnissen durch die Analyseverfahren:
    • Rationalisierung: Verhalten des KI-Systzems wird beschrieben, als hätte sich ein Mensch so verhalten
    • Counterfactual Analysis / Counterfactual Explanation: DAs Ergbenis der altgorithmischen Entscheidung wird mit einem Ergebnis verglichen, dass ohne den Einsatz von Algorthmen erzielt wurde
    • Layer-wise Relevance Propagation (LRP): schichtweise Rückverfolgung der Denkweise einer KI

Wie KI den Bias los wird

Künstliche Intelligenz, so schlussfolgert Krüger, sei nicht verantwortlich, sie müsse verantwortbar sein. Das Dilemma in der Diskussion ist: "Älterer Code kommt fast ausschließlich von heute alten weißen Männern und neuerer Code kommt noch immer überwiegend von jüngeren weißen Männern. Zu glauben, dass die Systeme mit diesem Code keinen Bias enthielten, wäre vor zehn Jahren naiv gewesen, heute ist es unverantwortlich" (Seite 553/554). Es braucht also Gesetze und Richtlinien, die nicht zaudern, sondern den Zustand begreifen und schnell regulieren.  

Related topics

Background information for this content

Premium Partner