Skip to main content
Top

"Banken sollten KI nicht in den Fahrersitz setzen"

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …
print
PRINT
insite
SEARCH

Künstliche Intelligenz (KI) ist eine treibende Kraft in der Wirtschaft: Sie beschleunigt Prozesse, senkt Kosten und verbessert das Kundenmanagement. Im Finanzbereich sorgt sie allerdings für neue Risiken. Wo Gefahren lauern, erklärt KI-Experte George Karapetyan.

George Karapetyan ist KI-Spezialist beim IT-Dienstleister LPA. Er unterstützt Finanzinstitute bei der Entwicklung und Implementierung innovativer Lösungen im Bereich der Künstlichen Intelligenz und verfolgt die regulatorische Diskussion im Detail. 


Gary Gensler, Chef der US-amerikanischen Börsenaufsicht, hat Mitte August vor den möglichen Folgen Künstlicher Intelligenz und insbesondere vor Tools wie ChatGPT im Finanzsystem gewarnt. Können Sie uns kurz seine Bedenken hinsichtlich der neuen Technologie zusammenfassen? 

Da nur wenige Unternehmen in der Lage sein werden, Foundational-KI-Modelle bereitzustellen, wird sich laut Gensler das Konzentrationsrisiko erhöhen. Je mehr Investitionsentscheidungen auf der Grundlage der gleichen Informationen getroffen werden, desto höher ist das Risiko eines Absturzes. Gensler sieht hier besonders die Gefahr eines sich verstärkenden Herdenverhaltens.

Wie beurteilen Sie die möglichen negativen Effekte von Algorithmen auf die europäischen Finanzmärkte, hiesige Banken sowie Investoren und Anleger?

Es gibt tatsächlich zentrale Risiken, die man abwägen muss. Diese lassen sich aufteilen in Modellrisiko, Konzentrationsrisiko sowie schlicht Mängel in der Erklärbarkeit von KI. Modellrisiko bedeutet, dass das Modell falsche Informationen liefert. Insbesondere generative KI-Modelle wie das GPT4 sind anfällig für Halluzinationen. Das Konzentrationsrisiko würde bedeuten, dass viele die selben Foundational-KI-Modelle verwenden und ihre Entscheidungen im Wesentlichen auf dieselben Informationen stützen. Gensler kritisiert zurecht, dass die Finanzkrisen verstärken könnte. Darüber hinaus sind Modelle schwer zu erklären. Es ist schwierig, diese Risiken von vornherein zu mindern. Dies gilt jedoch auch für bereits bestehende algorithmische Lösungen. Ich denke dabei an den Flash Crash von 2010, der durch Algorithmen ausgelöst wurde. 

Wo liegen die Unterschiede zu den USA? 

Meiner Meinung nach gibt es zwei große Unterschiede zwischen den USA und Europa. Einerseits werden die meisten der erstklassigen Foundational-KI-Modelle von amerikanischen Unternehmen entwickelt, wie zum Beispiel GPT4, LLAMMA2 und andere. Zum anderen sind die europäischen Aufsichtsbehörden traditionell strenger. Die EU setzt in der Regel in vielen Bereichen Standards. Und ich sehe keinen Grund, warum dies nicht auch im Falle der KI der Fall sein sollte, zumal der Datenschutz ohnehin im Brüsseler Fokus steht. Ich stimme den von Gensler erwähnten Risiken zu, glaube aber nicht, dass diese per se durch den Einsatz von generativer KI entstehen, sondern bei allen Algorithmen. Und die Vorteile von Algorithmen haben bereits bewiesen, dass sie die Risiken überwiegen.

Wie könnte die von Gensler befürchtete, KI-getriggerte Finanzkrise in der Praxis ablaufen?  

Es kann Folgendes passieren: Ein Großinvestor könnte die Aktien eines Unternehmens aufgrund einer fehlerhaften Empfehlung des KI-Systems verkaufen. Die anderen Algorithmen, die von anderen Anlegern verwendet werden, würden dies als Signal auffassen und diesem Beispiel folgen. Dieser Vorgang ist, was man unter Herdenverhalten versteht. Nehmen wir an, das betreffende Unternehmen ist ein Finanzinstitut. Über Nacht schwindet das Vertrauen des Marktes in die Bank, was eine Kettenreaktion auslöst, die sich auf den gesamten Sektor auswirkt. Die Diskussionen in sozialen Medien kochen hoch, es entsteht eine gefährliche Melange. 

Welche Möglichkeiten haben hiesige Behörden aktuell, um negative Entwicklungen auf den einschlägigen Plattformen und Trading-Apps zu verhindern? 

Mit dem EU AI Act haben wir bereits einen ersten Ansatz, bei dem der Einsatz von Künstlicher Intelligenz, also Artificial Intelligence, in Risikogruppen eingeteilt wird. Ich denke, das ist ein guter Ausgangspunkt. Es gibt jedoch auch zusätzliche Offenlegungs- und Erklärungspflichten, die verbindlich gemacht werden könnten. Darüber hinaus glaube ich, dass eine Art regelmäßiger Stresstest, der das KI-Modellrisiko in einem Sektor einbezieht, die Risiken in Grenzen halten würde. 

Was bedeutet das konkret? 

Schließlich halte ich bei dieser Art von intelligenter Technologie eine engere Zusammenarbeit zwischen der Branche und den Aufsichtsbehörden für gerechtfertigt. Ich könnte mir vorstellen, eine bestimmte Einsatzkomponente zu integrieren, an der die Aufsichtsbehörde oder unabhängige Modelltester beteiligt sind. Hier könnten Beratungsunternehmen, Benchmark-Agenturen und Wirtschaftsprüfer ins Spiel kommen. Letztlich machen wir das ja auch mit normalen Finanzberichten oder ESG-Ratings ähnlich. 

Die US-Börsenaufsicht hat angeregt, dass Trading-Anbieter künftig verpflichtet werden, entsprechende Benachteiligungen ihrer Kunden durch sichere KI-Tools zu verhindern. Gibt es bereits Vorschläge europäischer Regulierer, um die Gefahren für den Finanzsektor zu minimieren?  

Ja. Der EU AI Act teilt die Anwendungen in Risikoklassen ein und schlägt spezielle Entwicklungs- und Nutzungsanforderungen vor, um solche Risiken zu verhindern. Dies ist Teil eines umfassenderen Regulierungsvorstoßes. Ich glaube, dass dies zwar nicht ausreicht, allerdings stellt dieser einen guten Ausgangspunkt dar.

Wo besteht aus Ihrer Sicht derzeit der dringendste Handlungsbedarf? Können Sie uns das an praktischen Beispielen erläutern? 

Da sich die Technologie so schnell weiterentwickelt, sollten die Aufsichtsbehörden meiner Meinung nach mit der Industrie zusammenarbeiten, um die Innovation nicht zu ersticken. Anforderungen festzulegen kann manchmal technologisch kaum machbar sein. Besteht kein klarer Rahmen riskieren wir, dass der Wettbewerb in anderen Ländern stärker wird. Das Umfeld wäre attraktiver und effizienter und EU-Akteure werden ins Hintertreffen geraten. Ich denke, die Aufsichtsbehörden sollten ein Programm auflegen, mit dem sie die Marktteilnehmer bei der Umsetzung und Prüfung sicherer Lösungen unterstützen. Dies erfordert einen sehr bedeutenden Mentalitätswandel.

Was können Banken und Sparkassen derzeit tun, um Risiken für sich und ihren Kunden möglichst klein zu halten? 

Wir haben viele Reaktionen von Branchenakteuren gesehen. Einige blockieren die Verwendung von KI-Tools wie ChatGPT, andere nutzen sie voll aus. Ich glaube, dass der Schlüssel in der schrittweisen Einführung mit ausreichenden Tests liegt. Ich denke, Banken können mit den einfacheren und weniger riskanten Anwendungsfällen beginnen. Zum Beispiel können generative KI und große Sprachmodelle verwendet werden, um die Finanzbildung von Kunden zu fördern. Stellen Sie sich vor, auf der Broker-Plattform könnten Investoren lernen, wie komplexe strukturierte Produkte funktionieren. Eine weitere Möglichkeit besteht darin, die KI nicht in den Fahrersitz zu setzen, sondern als Werkzeug zu verwenden, das Ihnen bei Entscheidungen hilft. Man denke etwa an Lösungen im Bereich Behavioral Finance. 

print
PRINT

Background information for this content

Funktion und Einsatz von Künstlicher Intelligenz

Dieses Kapitel gibt einen Überblick über die wichtigsten Technologien und Modelle, die gemeinhin unter dem Begriff der „Künstlichen Intelligenz“ zusammengefasst werden. Es geht darum, ein grundlegendes Verständnis der Funktions- und Arbeitsweise …

Kreditrisikomanagement, algorithmische Fairness und Datenschutzgesetze: ein Rahmen für die Modellierung

Neben traditionellen statistischen Modellen setzen moderne Banken im Kreditrisikomanagement zunehmend Methoden der Künstlichen Intelligenz ein. Dabei ist der Umgang mit sensiblen Daten eine besondere Herausforderung. Die Modelle und Algorithmen …

ChatGPT: potential, prospects, and limitations

  • Comment

Recently, OpenAI released Chat Generative Pre-trained Transformer (ChatGPT), which has attracted considerable attention from the industry and academia because of its impressive abilities. This is the first time that such a variety of open tasks can be well solved within one large language model. To better understand ChatGPT, we briefly introduce its history, discuss its advantages and disadvantages, and point out several potential applications.

Was Sie über KI und den KI-Act wissen müssen

In diesem Kapitel werden die Basics zur künstlichen Intelligenz und zum Gesetzesentwurf des KI-Acts der Europäischen Union dargestellt. Wir thematisieren zunächst die Grundlagen der KI; dies beinhaltet sowohl die historische Entwicklung von …

"Digitalisierung ermöglicht unwahrscheinlich viel"

  • Bankmagazin-Gespräch

Stephan A. Paxmann, Leiter des strategischen Entwicklungsbereichs Digitalisierung und Innovation bei der Landesbank Baden-Württemberg (LBBW), über die Aufgaben seines Teams und die Transformation der Finanzbranche.

Aktuelle Einsatzbereiche der KI innerhalb des Finanzdienstleistungssektors

Die künstliche Intelligenz und deren Technologien haben bereits und werden auf viele Branchen und Bereiche Einfluss ausüben. Die Finanzdienstleistungsbranche stellt hierbei keine Ausnahme dar. In diesem Kapitel werden einige der Einsatzbereiche …

    Image Credits
    George Karapetyan/© Springer Fachmedien Wiesbaden GmbH, Salesforce.com Germany GmbH/© Salesforce.com Germany GmbH, IDW Verlag GmbH/© IDW Verlag GmbH, Diebold Nixdorf/© Diebold Nixdorf, Ratiodata SE/© Ratiodata SE, msg for banking ag/© msg for banking ag, C.H. Beck oHG/© C.H. Beck oHG, OneTrust GmbH/© OneTrust GmbH, Governikus GmbH & Co. KG/© Governikus GmbH & Co. KG, Horn & Company GmbH/© Horn & Company GmbH, EURO Kartensysteme GmbH/© EURO Kartensysteme GmbH, Jabatix S.A./© Jabatix S.A.