Künstliche Intelligenz (KI) ist eine treibende Kraft in der Wirtschaft: Sie beschleunigt Prozesse, senkt Kosten und verbessert das Kundenmanagement. Im Finanzbereich sorgt sie allerdings für neue Risiken. Wo Gefahren lauern, erklärt KI-Experte George Karapetyan.
Gary Gensler, Chef der US-amerikanischen Börsenaufsicht, hat Mitte August vor den möglichen Folgen Künstlicher Intelligenz und insbesondere vor Tools wie ChatGPT im Finanzsystem gewarnt. Können Sie uns kurz seine Bedenken hinsichtlich der neuen Technologie zusammenfassen?
Da nur wenige Unternehmen in der Lage sein werden, Foundational-KI-Modelle bereitzustellen, wird sich laut Gensler das Konzentrationsrisiko erhöhen. Je mehr Investitionsentscheidungen auf der Grundlage der gleichen Informationen getroffen werden, desto höher ist das Risiko eines Absturzes. Gensler sieht hier besonders die Gefahr eines sich verstärkenden Herdenverhaltens.
Wie beurteilen Sie die möglichen negativen Effekte von Algorithmen auf die europäischen Finanzmärkte, hiesige Banken sowie Investoren und Anleger?
Es gibt tatsächlich zentrale Risiken, die man abwägen muss. Diese lassen sich aufteilen in Modellrisiko, Konzentrationsrisiko sowie schlicht Mängel in der Erklärbarkeit von KI. Modellrisiko bedeutet, dass das Modell falsche Informationen liefert. Insbesondere generative KI-Modelle wie das GPT4 sind anfällig für Halluzinationen. Das Konzentrationsrisiko würde bedeuten, dass viele die selben Foundational-KI-Modelle verwenden und ihre Entscheidungen im Wesentlichen auf dieselben Informationen stützen. Gensler kritisiert zurecht, dass die Finanzkrisen verstärken könnte. Darüber hinaus sind Modelle schwer zu erklären. Es ist schwierig, diese Risiken von vornherein zu mindern. Dies gilt jedoch auch für bereits bestehende algorithmische Lösungen. Ich denke dabei an den Flash Crash von 2010, der durch Algorithmen ausgelöst wurde.
Wo liegen die Unterschiede zu den USA?
Meiner Meinung nach gibt es zwei große Unterschiede zwischen den USA und Europa. Einerseits werden die meisten der erstklassigen Foundational-KI-Modelle von amerikanischen Unternehmen entwickelt, wie zum Beispiel GPT4, LLAMMA2 und andere. Zum anderen sind die europäischen Aufsichtsbehörden traditionell strenger. Die EU setzt in der Regel in vielen Bereichen Standards. Und ich sehe keinen Grund, warum dies nicht auch im Falle der KI der Fall sein sollte, zumal der Datenschutz ohnehin im Brüsseler Fokus steht. Ich stimme den von Gensler erwähnten Risiken zu, glaube aber nicht, dass diese per se durch den Einsatz von generativer KI entstehen, sondern bei allen Algorithmen. Und die Vorteile von Algorithmen haben bereits bewiesen, dass sie die Risiken überwiegen.
Wie könnte die von Gensler befürchtete, KI-getriggerte Finanzkrise in der Praxis ablaufen?
Es kann Folgendes passieren: Ein Großinvestor könnte die Aktien eines Unternehmens aufgrund einer fehlerhaften Empfehlung des KI-Systems verkaufen. Die anderen Algorithmen, die von anderen Anlegern verwendet werden, würden dies als Signal auffassen und diesem Beispiel folgen. Dieser Vorgang ist, was man unter Herdenverhalten versteht. Nehmen wir an, das betreffende Unternehmen ist ein Finanzinstitut. Über Nacht schwindet das Vertrauen des Marktes in die Bank, was eine Kettenreaktion auslöst, die sich auf den gesamten Sektor auswirkt. Die Diskussionen in sozialen Medien kochen hoch, es entsteht eine gefährliche Melange.
Welche Möglichkeiten haben hiesige Behörden aktuell, um negative Entwicklungen auf den einschlägigen Plattformen und Trading-Apps zu verhindern?
Mit dem EU AI Act haben wir bereits einen ersten Ansatz, bei dem der Einsatz von Künstlicher Intelligenz, also Artificial Intelligence, in Risikogruppen eingeteilt wird. Ich denke, das ist ein guter Ausgangspunkt. Es gibt jedoch auch zusätzliche Offenlegungs- und Erklärungspflichten, die verbindlich gemacht werden könnten. Darüber hinaus glaube ich, dass eine Art regelmäßiger Stresstest, der das KI-Modellrisiko in einem Sektor einbezieht, die Risiken in Grenzen halten würde.
Was bedeutet das konkret?
Schließlich halte ich bei dieser Art von intelligenter Technologie eine engere Zusammenarbeit zwischen der Branche und den Aufsichtsbehörden für gerechtfertigt. Ich könnte mir vorstellen, eine bestimmte Einsatzkomponente zu integrieren, an der die Aufsichtsbehörde oder unabhängige Modelltester beteiligt sind. Hier könnten Beratungsunternehmen, Benchmark-Agenturen und Wirtschaftsprüfer ins Spiel kommen. Letztlich machen wir das ja auch mit normalen Finanzberichten oder ESG-Ratings ähnlich.
Die US-Börsenaufsicht hat angeregt, dass Trading-Anbieter künftig verpflichtet werden, entsprechende Benachteiligungen ihrer Kunden durch sichere KI-Tools zu verhindern. Gibt es bereits Vorschläge europäischer Regulierer, um die Gefahren für den Finanzsektor zu minimieren?
Ja. Der EU AI Act teilt die Anwendungen in Risikoklassen ein und schlägt spezielle Entwicklungs- und Nutzungsanforderungen vor, um solche Risiken zu verhindern. Dies ist Teil eines umfassenderen Regulierungsvorstoßes. Ich glaube, dass dies zwar nicht ausreicht, allerdings stellt dieser einen guten Ausgangspunkt dar.
Wo besteht aus Ihrer Sicht derzeit der dringendste Handlungsbedarf? Können Sie uns das an praktischen Beispielen erläutern?
Da sich die Technologie so schnell weiterentwickelt, sollten die Aufsichtsbehörden meiner Meinung nach mit der Industrie zusammenarbeiten, um die Innovation nicht zu ersticken. Anforderungen festzulegen kann manchmal technologisch kaum machbar sein. Besteht kein klarer Rahmen riskieren wir, dass der Wettbewerb in anderen Ländern stärker wird. Das Umfeld wäre attraktiver und effizienter und EU-Akteure werden ins Hintertreffen geraten. Ich denke, die Aufsichtsbehörden sollten ein Programm auflegen, mit dem sie die Marktteilnehmer bei der Umsetzung und Prüfung sicherer Lösungen unterstützen. Dies erfordert einen sehr bedeutenden Mentalitätswandel.
Was können Banken und Sparkassen derzeit tun, um Risiken für sich und ihren Kunden möglichst klein zu halten?
Wir haben viele Reaktionen von Branchenakteuren gesehen. Einige blockieren die Verwendung von KI-Tools wie ChatGPT, andere nutzen sie voll aus. Ich glaube, dass der Schlüssel in der schrittweisen Einführung mit ausreichenden Tests liegt. Ich denke, Banken können mit den einfacheren und weniger riskanten Anwendungsfällen beginnen. Zum Beispiel können generative KI und große Sprachmodelle verwendet werden, um die Finanzbildung von Kunden zu fördern. Stellen Sie sich vor, auf der Broker-Plattform könnten Investoren lernen, wie komplexe strukturierte Produkte funktionieren. Eine weitere Möglichkeit besteht darin, die KI nicht in den Fahrersitz zu setzen, sondern als Werkzeug zu verwenden, das Ihnen bei Entscheidungen hilft. Man denke etwa an Lösungen im Bereich Behavioral Finance.