Künstliche Intelligenz (KI) und Nachhaltigkeit bilden bei Geldanlagen eine spannende Symbiose. Das gilt vor allem für Explainable Artificial Intelligence. Die Lösung durchleuchtet maschinelle Lernmodelle der Finanzbranche und hilft, die Nachfrage nach ESG-gerechten Produkten zuverlässig zu bedienen.
Künstliche Intelligenz (KI) ist weiter auf dem Vormarsch. Immer mehr Branchen nutzen diese revolutionären Anwendungen mit all ihren Facetten, darunter Machine Learning (ML) und Deep Learning. Durch sie können Unternehmen ihre Produkte und Dienstleistungen mit hochgradig maßgeschneiderten Funktionen anreichern und Kunden mehr Leistung bieten. Das ist auch in der Banken- und Finanzbranche angekommen - beispielsweise im schnell wachsenden Markt für nachhaltige Finanzprodukte und -dienstleistungen, unter dem Kürzel ESG (Environmental, Social, Governance). Gerade hier können KI-Anwendungen enorm dazu beitragen, die Angebots-Nachfrage-Lücke zu schließen.
Doch wie lässt sich KI für Sustainable Finance konkret nutzen? Ein gutes Beispiel ist die Berechnung eines ESG-Score von Anlageportfolios oder des ökologischen Fußabdrucks von Kunden. Auch bei der Umschichtung von Kapital in ESG-freundlichere Finanzprodukte oder bei der Erstellung automatisierter, hoch personalisierter Anlageempfehlungen kann KI sehr gute Dienste leisten und das gleich doppelt: Kunden können zum einen eine gute Awareness für ihr eigenes Kaufverhalten entwickeln und bekommen außerdem den Anreiz, ihren ESG-Score weiter zu verbessern.
KI als Basis für ein optimales Cross-Selling
Darin stecken vielfältige Potenziale für Finanzinstitute: Sie können ihren Kunden zielgerichtete, auf dem jeweiligen Anlage- und Kaufverhalten basierende, ESG-freundliche Produkte empfehlen und außerdem verstärkt Cross-Selling nachhaltiger Angebote und Dienstleistungen betreiben - zum Beispiel durch aktives Placement in der eigenen Banking-App oder im Online-Banking.
Allerdings gibt es einen entscheidenden Haken: Die meisten der heute verwendeten KI-Techniken werden als sogenannte Blackbox-Modelle betrachtet. Denn es ist nahezu unmöglich, nachzuvollziehen, wie ein Modell zu einer bestimmten Vorhersage gekommen ist. Das wiederum steht in krassem Gegensatz zum enormen Transparenzbedarf der hoch regulierten Finanz- und Bankenbranche. Die Lösung heißt Explainable Artificial Intelligence (XAI): Sie ermöglicht den Blick in die inneren Arbeitsprinzipien dieser Blackbox-Modelle.
ML-basierte Entscheidungen werden nachvollziehbar
Anders als die meisten KI-bezogenen Anwendungen hat XAI nicht das vorrangige Ziel, genauere Vorhersagen zu erzeugen. Stattdessen liefert XAI für den Menschen verständliche Erklärungen, wie und warum ein maschinelles Lernmodell zu seiner endgültigen Prognose gelangt ist.
Derzeit am stärksten verbreitet sind die Methoden LIME und SHAP. Sie liefern detaillierte Einblicke in die Parameter, die einen Blackbox-Algorithmus zu seiner endgültigen Vorhersage veranlasst haben. Das wiederum ermöglicht KI-Ingenieuren und Produktmanagern, mögliche Verzerrungen und Befangenheiten in den Algorithmen zu erkennen. So unterstützt XAI Finanzinstitute dabei, Governance-Kriterien besser zu erfüllen.
Verwässerung von ESG-Kriterien vermeiden
Allerdings ist beim Begriff ESG grundsätzlich Vorsicht geboten: Mittlerweile wird er inflationär gebraucht und hat in so vielen Branchen Einzug gehalten, dass die Anforderungen an die Einhaltung unscharf geworden sind. Die Folge: Unternehmen verwässern - möglicherweise unwissentlich - die Kriterien Environmental, Social und Governance, um ihre immer umweltbewusster werdenden Kunden zufrieden zu stellen.
Ein Paradebeispiel ist die Atomindustrie und die Debatte darüber, ob sie in ESG-Fonds aufgenommen werden sollen oder nicht. Finanzinstitute legen dieses Thema teilweise höchst unterschiedlich aus, mit erheblichen Auswirkungen auf die Kategorisierung von Finanzanlagen. XAI kann hier wichtige Dienste leisten, um die Entscheidungen der zugrundeliegenden Algorithmen zu verstehen und unternehmensspezifische ESG-Interpretationen einzuordnen.
Bisher nutzen nur wenige Finanzinstitute die Möglichkeiten von XAI, weitreichende Erklärungsverfahren für echte Transparenz sind derzeit noch dünn gesät. Doch es zeichnet sich ab, dass Erklärbarkeit in nicht allzu ferner Zukunft zur notwendigen Anforderung für KI wird. Umso wichtiger ist es, sich bereits heute damit zu beschäftigen. So können Finanzdienstleister die wachsende Nachfrage nach nachhaltigen Produkten und Dienstleistungen verlässlich bedienen und und auch in Zukunft gewinnbringende Potenziale nutzen.