Skip to main content
main-content

10.05.2022 | Künstliche Intelligenz | Im Fokus | Online-Artikel

Finanzbranche profitiert von einer ethischen KI

verfasst von: Angelika Breinich-Schilly

4 Min. Lesedauer
share
TEILEN
print
DRUCKEN
insite
SUCHEN

Künstliche Intelligenz beschleunigt in der Finanzindustrie bereits viele Geschäftprozesse, entlastet Mitarbeiter und enttarnt Geldwäscher. Doch die Technologie muss diskriminierungsfrei und sicher arbeiten, fordert ein EU-Gesetzentwurf. Ein System das irrt, birgt enorme Risiken.

"Digitale und intelligente Algorithmen helfen schon heute dabei, Betrugsversuche verlässlich aufzudecken, bei Geldwäsche Alarm zu schlagen, Finanztransaktionen schneller abzuwickeln, Kunden umfassender zu beraten und neue Geschäftsmodelle zu entwickeln", erläutert Daniel A. Schmidt die Aufgaben von "KI in Banken" (Seite 183). Künstliche Intelligenz (KI) unterstützt Mitarbeiter bei ihrer täglichen Arbeit, entlastet sie von zeit- und ressourcenintensiven Aufgaben und beschleunigt so aufwendige Geschäftsprozesse. 

Empfehlung der Redaktion

01.07.2021 | Wissen — Künstliche Intelligenz

Künstliche Intelligenz in Banken: Worauf es im aktuellen Marktumfeld ankommt

Der Einsatz von Künstlicher Intelligenz (KI) besitzt eine hohe Bedeutung für die zukünftige Wettbewerbsfähigkeit von Banken. Mittlerweile haben sich vielfältige Anwendungsfälle ergeben, die bereits heute produktiv in verschiedenen Instituten laufen. Zu den prominentesten Beispielen zählen unter anderem der Einsatz von KI in Chat- und Talkbots sowie in der Optimierung der Betrugs- und Geldwäscheprävention.

Artificial Intelligence Act will Diskriminierung verhindern

Ob die durch KI getriebenen Ziele auch tatsächlich realisiert werden, "hängt maßgeblich davon ab, ob die Menschen Vertrauen in die Technologie setzen", schreibt Jessica Heesen in der Zeitschrift "Digitale Welt" (Ausgabe 3 | 2021). "Welche Herausforderungen ergeben sich für die verantwortungsbewusste Entwicklung und Anwendung von entsprechenden Systemen", fragt die Expertin für Lernende Systeme der Universität Tübingen. Nach welchen Kriterien sollen diese umgesetzt werden? Und was können Unternehmen tun, um KI diskriminierungsfrei anzuwenden? 

Eine erste Antwort darauf hat die Europäische Kommission 2019 gefunden und Leitlinien für eine "vertrauenswürdige KI" von einer Expertengruppe erarbeiten lassen. Dieser folgte 2020 ein KI-Weißbuch, auf dessen Grundlage ein Ökosystem für Exzellenz und Vertrauen in diese Technologie geschaffen werden soll. 

"Darauf baut der Vorschlag des 'Artificial Intelligence Act' [...] vom 21. April 2021 auf", erläutert Claudia Otto in der Zeitschrift "Recht innovativ" (Sammelband 2021). Mit diesem Gesetzentwurf sollen nach dem Willen der EU-Politiker, Chancen und Risiken von KI-Technologien in Ausgleich gebracht werden. Und zwar "in der Art und Weise, dass Europa in naher Zukunft ein attraktiver Standort für Innovation und Investition werden kann", fasst die Rechtsanwältin die langfristigen Ziele zusammen. 

Sieben zentrale Aspekte beim Einsatz von KI

"Im Wesentlichen adressiert die EU-Kommission sieben Punkte", erläutert Gery Zollinger im Gespräch mit Springer Professional das Vorhaben. Der Experte ist Head of Data Science & Analytics bei Avaloq, einem Anbieter von digitalen Banking-Lösungen. Für Finanzinstitute bedeute dies, dass ihre KI-Systeme 

  1. Menschen zu fundierten Entscheidungen befähigen sollen, die aber zugleich kontrollierbar sind, 
  2. technisch robust und sicher sein sowie 
  3. Datenschutz und Data Governance gewähleisten müssen (einschließlich nur eines legitimierten Zugangs), 
  4. transparent sind (auch im Hinblick auf die KI-Geschäftsmodelle),
  5. unfaire Vorurteile und Diskriminierung ausschließen, 
  6. nachhaltig und umweltfreundlich gestaltet sowie 
  7. stets rechenschaftspflichtig und überprüfbar sind.

Für Finanzinstitute als auch für Anbieter entsprechender Datenanalyse- und KI-Lösungen ist es laut Zollinger wichtig, "die bevorstehenden regulatorischen Anforderungen in ihren Systemen schon jetzt zu erfüllen oder sogar zu übertreffen". 

Dabei gehe es nicht nur um Compliance-Risiken. "Vielmehr bestehen ja schon heute Reputationsrisiken, wenn eine vorurteilsbeladene KI regelmäßig diskriminierende Urteile fällt", weiß der Experte. Wenn sich ein Algorithmus etwa bei Kreditratings systematisch irrt, schade dies der Bank unmittelbar: "Ihr entgehen dann zum Beispiel relevante Umsatzchancen, ihr entsteht wirtschaftlicher Schaden", warnt Zollinger. 

Vielfalt im Hinblick auf Dienste und Anbieter gewährleisten

Laut Jessica Heesen geht es auf individueller Ebene grundsätzlich um "ein verständliches Interaktionsdesign, Transparenz oder einen Aus-Knopf zur Unterbrechung einer KI-Anwendung", also dem Vorbehalt der menschlichen Letztentscheidung. Auf infrastruktureller Ebene drehe es sich vor allem um die Sicherung von Vielfalt im Hinblick auf Dienste und Anbieter. 

Mit dem wachsenden Risiko auf den Einzelnen steigen auch proportional die regulatorischen Anforderungen bis hin zu einem KI-Verbot, erläutert Claudia Otto das Konzept des Artificial Intelligence Act. Vier Stufen habe die Europäische Kommission in einer sogenannten Risiko-Pyramide zusammengefasst, die von KI-Anwendungen mit keinem oder minimalem Risikopotenzial bis hin zu solchen mit inakzeptablen Risiken reicht. "Dieser risikobasierte Ansatz soll mit einfachen Mitteln Klarheit und Rechtssicherheit schaffen."

KPIs zeigen Risiken in KI-Systemen

Für Finanzinstitute heißt das laut KI-Experte Zollinger, dass sie sich intensiv mit den KI-Systemen beschäftigen müssen, die ein starkes Risiko mit sich bringen: 

Darunter fallen Systeme, die die Kreditwürdigkeit eines Kunden analysieren oder die Eignung von Bewerbern im HR-Bereich. Schon bei der Entwicklung dieser KI-Modelle sollte man an obligatorische Verfahren denken, die es gestatten, Leistungskennzahlen (KPIs) des Systems zu erheben und die Vorhersagegenauigkeit des Modells zu monitoren."

Weiche etwa die Qualität im Betrieb von der in der Entwicklungsphase erwarteten Genauigkeit des Modells um beispielsweise mehr als 15 Prozent ab, sollte das Monitoring-Werkzeug mit einer Warnmeldung darauf aufmerksam machen. "Und sehr vorurteilsanfällige Attribute wie etwa Geschlecht oder Wohnort darf eine Kreditrating-KI erst gar nicht zur Bewertung heranziehen", so Zollinger. 

Darum sei die kontinuierliche Überwachung, wie gut und vorurteilsfrei ein Modell agiert, "das A und O auf dem Weg hin zu einer ethischen KI". Letztlich müsse immer ein Mensch abwägen, "wie gravierend das Qualitätsproblem des KI-Systems ist und ob eine KI moralische Standards verletzt. Es bleibt dabei: Es sind die Menschen, die entscheiden", lautet sein Fazit.

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

2021 | OriginalPaper | Buchkapitel

KI in Banken

Die Bank der Zukunft
Quelle:
Arbeitswelt und KI 2030

01.07.2021 | Wissen — Künstliche Intelligenz — Compliance

Wie kommt Ethik in die Künstliche Intelligenz?

Das könnte Sie auch interessieren

Premium Partner