Skip to main content

19.09.2022 | Künstliche Intelligenz | Gastbeitrag | Online-Artikel

Erklärbare KI macht nachhaltige Geldanlagen transparent

verfasst von: Tim Thorsten Mack, Bastian Pfaar

3 Min. Lesedauer

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
print
DRUCKEN
insite
SUCHEN
loading …

Künstliche Intelligenz (KI) und Nachhaltigkeit bilden bei Geldanlagen eine spannende Symbiose. Das gilt vor allem für Explainable Artificial Intelligence. Die Lösung durchleuchtet maschinelle Lernmodelle der Finanzbranche und hilft, die Nachfrage nach ESG-gerechten Produkten zuverlässig zu bedienen.

Künstliche Intelligenz (KI) ist weiter auf dem Vormarsch. Immer mehr Branchen nutzen diese revolutionären Anwendungen mit all ihren Facetten, darunter Machine Learning (ML) und Deep Learning. Durch sie können Unternehmen ihre Produkte und Dienstleistungen mit hochgradig maßgeschneiderten Funktionen anreichern und Kunden mehr Leistung bieten. Das ist auch in der Banken- und Finanzbranche angekommen - beispielsweise im schnell wachsenden Markt für nachhaltige Finanzprodukte und -dienstleistungen, unter dem Kürzel ESG (Environmental, Social, Governance). Gerade hier können KI-Anwendungen enorm dazu beitragen, die Angebots-Nachfrage-Lücke zu schließen.

Empfehlung der Redaktion

2021 | OriginalPaper | Buchkapitel

Explainable AI (XAI) Models Applied to the Multi-agent Environment of Financial Markets

Financial markets are a real life multi-agent system that is well known to be hard to explain and interpret. We consider a gradient boosting decision trees (GBDT) approach to predict large S&P 500 price drops from a set of 150 technical, fundamental and macroeconomic features. We report an improved accuracy of GBDT over other machine learning (ML) methods on the S&P 500 futures prices. We show that retaining fewer and carefully selected features provides improvements across all ML approaches. Shapley values have recently been introduced from game theory to the field of ML. They allow for a robust identification of the most important variables predicting stock market crises, and of a local explanation of the crisis probability at each date, through a consistent features attribution.

Doch wie lässt sich KI für Sustainable Finance konkret nutzen? Ein gutes Beispiel ist die Berechnung eines ESG-Score von Anlageportfolios oder des ökologischen Fußabdrucks von Kunden. Auch bei der Umschichtung von Kapital in ESG-freundlichere Finanzprodukte oder bei der Erstellung automatisierter, hoch personalisierter Anlageempfehlungen kann KI sehr gute Dienste leisten und das gleich doppelt: Kunden können zum einen eine gute Awareness für ihr eigenes Kaufverhalten entwickeln und bekommen außerdem den Anreiz, ihren ESG-Score weiter zu verbessern.

KI als Basis für ein optimales Cross-Selling

Darin stecken vielfältige Potenziale für Finanzinstitute: Sie können ihren Kunden zielgerichtete, auf dem jeweiligen Anlage- und Kaufverhalten basierende, ESG-freundliche Produkte empfehlen und außerdem verstärkt Cross-Selling nachhaltiger Angebote und Dienstleistungen betreiben - zum Beispiel durch aktives Placement in der eigenen Banking-App oder im Online-Banking.

Allerdings gibt es einen entscheidenden Haken: Die meisten der heute verwendeten KI-Techniken werden als sogenannte Blackbox-Modelle betrachtet. Denn es ist nahezu unmöglich, nachzuvollziehen, wie ein Modell zu einer bestimmten Vorhersage gekommen ist. Das wiederum steht in krassem Gegensatz zum enormen Transparenzbedarf der hoch regulierten Finanz- und Bankenbranche. Die Lösung heißt Explainable Artificial Intelligence (XAI): Sie ermöglicht den Blick in die inneren Arbeitsprinzipien dieser Blackbox-Modelle.

ML-basierte Entscheidungen werden nachvollziehbar

Anders als die meisten KI-bezogenen Anwendungen hat XAI nicht das vorrangige Ziel, genauere Vorhersagen zu erzeugen. Stattdessen liefert XAI für den Menschen verständliche Erklärungen, wie und warum ein maschinelles Lernmodell zu seiner endgültigen Prognose gelangt ist.

Derzeit am stärksten verbreitet sind die Methoden LIME und SHAP. Sie liefern detaillierte Einblicke in die Parameter, die einen Blackbox-Algorithmus zu seiner endgültigen Vorhersage veranlasst haben. Das wiederum ermöglicht KI-Ingenieuren und Produktmanagern, mögliche Verzerrungen und Befangenheiten in den Algorithmen zu erkennen. So unterstützt XAI Finanzinstitute dabei, Governance-Kriterien besser zu erfüllen.

Verwässerung von ESG-Kriterien vermeiden

Allerdings ist beim Begriff ESG grundsätzlich Vorsicht geboten: Mittlerweile wird er inflationär gebraucht und hat in so vielen Branchen Einzug gehalten, dass die Anforderungen an die Einhaltung unscharf geworden sind. Die Folge: Unternehmen verwässern - möglicherweise unwissentlich - die Kriterien Environmental, Social und Governance, um ihre immer umweltbewusster werdenden Kunden zufrieden zu stellen.

Ein Paradebeispiel ist die Atomindustrie und die Debatte darüber, ob sie in ESG-Fonds aufgenommen werden sollen oder nicht. Finanzinstitute legen dieses Thema teilweise höchst unterschiedlich aus, mit erheblichen Auswirkungen auf die Kategorisierung von Finanzanlagen. XAI kann hier wichtige Dienste leisten, um die Entscheidungen der zugrundeliegenden Algorithmen zu verstehen und unternehmensspezifische ESG-Interpretationen einzuordnen.

Bisher nutzen nur wenige Finanzinstitute die Möglichkeiten von XAI, weitreichende Erklärungsverfahren für echte Transparenz sind derzeit noch dünn gesät. Doch es zeichnet sich ab, dass Erklärbarkeit in nicht allzu ferner Zukunft zur notwendigen Anforderung für KI wird. Umso wichtiger ist es, sich bereits heute damit zu beschäftigen. So können Finanzdienstleister die wachsende Nachfrage nach nachhaltigen Produkten und Dienstleistungen verlässlich bedienen und und auch in Zukunft gewinnbringende Potenziale nutzen.

print
DRUCKEN

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

Das könnte Sie auch interessieren