Skip to main content
Erschienen in: Wirtschaftsinformatik & Management 5/2022

Open Access 14.09.2022 | Spektrum

Künstliche Intelligenz und Erklärbarkeit

verfasst von: Prof. Dr. Marco Barenkamp

Erschienen in: Wirtschaftsinformatik & Management | Ausgabe 5/2022

Aktivieren Sie unsere intelligente Suche um passende Fachinhalte oder Patente zu finden.

search-config
download
DOWNLOAD
print
DRUCKEN
insite
SUCHEN
loading …
Mit zunehmender Einflussnahme der künstlichen Intelligenz in unserem Alltag steigt der Wunsch nach Regulatorik und Erklärbarkeit.
Künstliche Intelligenz (KI) wird heutzutage in einer Vielzahl der alltäglichen Entscheidungen und Maßnahmen mittelbar oder direkt eingesetzt – sei es bei der Verkehrszeichenerkennung im Pkw oder bei der Präsentation der Vorschläge für künftige Streaming-Abende. Daher ist es nicht verwunderlich, dass eine eigentlich seit mindestens den 1970er-Jahren bekannte Disziplin eine immer größere Rolle in modernen KI-Projekten bekommt – sie nennt sich XAI und steht für Explainable Artificial Intelligence und diente zu jener Zeit dazu, die Entscheidungen von damaligen Expertensystemen für Menschen nachvollziehbar und erklärbar zu machen.
Heutzutage wird der Begriff XAI vor allem – aber nicht ausschließlich – bei der Nutzung neuronaler Netze verwendet, also in dem Bereich, den man auch als Deep Learning bezeichnet, um Ergebnisse interpretierbar und erklärbar zu machen. Auch wenn es keine eindeutige Definition der Interpretierbarkeit gibt, so scheint sich die Fachwelt zumindest darauf zu einigen, dass „Interpretierbarkeit der Grad ist, in dem ein Mensch das Ergebnis des Modells konsistent vorhersagen kann“.
"Menschliche Entscheidungen sind oftmals sehr diffizil zu beschreiben. Sie beinhalten neben rein rationalen Beweggründen auch individuelle Erfahrungen, Emotionen und persönliche Abwägungen! Erstaunlich, dass wir bei der KI höhere Maßstäbe anlegen, Entscheidungen erklärbar machen zu wollen als bei uns selbst."
Aber warum brauchen wir überhaupt diese Interpretierbarkeit oder Nachvollziehbarkeit bei der Nutzung künstlicher Intelligenz? Einer der Gründe ist sicherlich, dass die auf KI basierenden Lösungen bei einer Vielzahl von Entscheidungen, beim Zugriff auf Ressourcen wie Kredite, den Arbeitsplatz oder auch der medizinischen Notwendigkeit einer Behandlung, eingesetzt werden. Hier fordert die Gesellschaft und insbesondere der Gesetzgeber Transparenz und Nachvollziehbarkeit. Dies erscheint mit zunehmender Komplexität der neuronalen Netze immer schwieriger, wenn nicht sogar kognitiv nahezu unmöglich, da der Mensch die Vielzahl der eingesetzten Parameter und die hohe Anzahl der internen Schichten eines solchen Netzes nicht erfassen kann.
Laut George Miller, einem bekannten Psychologen, können wir Menschen im Kurzzeitgedächtnis durchschnittlich circa sieben Dinge verarbeiten. Würden wir dies auf die eingesetzten Modelle abbilden, wären die Vorhersagen der künstlichen Intelligenz wenig überzeugend und böten keinen Mehrwert. Als Beispiel sei an dieser Stelle ein neuronales Netz namens GPT‑3 vorgestellt, das eine Kapazität von 175 Mrd. Machine-Learning-Parametern besitzt und für die Erstellung oder die Interpretation von natürlicher Sprache in sehr guter Qualität eingesetzt wird. Hier zeigt sich sehr schön, dass es einen Zusammenhang zwischen der Komplexität des Modells und seiner Qualität gibt. Vereinfacht ließe sich sagen: Modelle, die wir verstehen können, liefern deutlich schlechtere Ergebnisse als die, die wir nicht mehr verstehen können und als Blackbox ansehen. Dies ist die Krux!
Somit wird schnell klar, dass eine Blackbox nicht über relevante wirtschaftliche, persönliche, gesundheitliche oder ethische Sachverhalte entscheiden darf – wir benötigen somit die besagte Interpretierbarkeit. Auch wenn wir Menschen nicht in der Lage sind, so viele Informationen wie ein neuronales Netz für eine solide Entscheidungsfindung zu nutzen, so möchten wir doch wenigstens verstehen, wieso eine Entscheidung getroffen wurde.
Stellt man einem Kind folgendes Rätsel, so wird es nach kurzem Überlegen die richtige Lösung präsentieren:
Lange Ohren, kurzer Schwanz.
Ich verstecke mich im hohen Grase.
Ich mag Karotten und Salat. Wer bin ich?
Klar, es handelt sich um einen Hasen. Dieses Kinderrätsel dürfte für den Großteil der Menschen keine allzu schwierige Aufgabe darstellen. Aber was, wenn man dieses Rätsel einem neuronalen Netz stellt, das über „Natural Language Processing“ bzw. „Natural Language Understanding“ versucht, den Sinn der Wörter zu erkennen, um dann eine plausible Antwort zu generieren? Ist es ausreichend gut trainiert, wird die KI zu dem Ergebnis kommen, dass es sich um einen Hasen oder zumindest um ein Kaninchen handelt.
Aber wieso kam es zu dem Ergebnis?
Die naheliegendste Antwort eines Entwicklers wäre vermutlich, weil die Aktivierung in der letzten Ebene, der Output Layer, für die Kategorie Hase mit 93 % am höchsten war und die Aktivierung für Kaninchen mit 87 % ebenfalls sehr hoch erscheint. Diese Erklärung erscheint insofern technisch richtig, ist aber eventuell nicht ausreichend, um zu verstehen, warum diese Werte über den Weg durch die Vielzahl der versteckten gelben Ebenen generiert wurden.
Daher gibt es Konzepte, eine Erklärbarkeit entweder als integralen Bestandteil des Modells in den Deep-Learning-Algorithmus einzubetten, sozusagen als Explainability by Design, oder als externe Validierung quasi dem Modell überzustülpen.
Bei diesen Konzepten möchte man beispielsweise prüfen, welche bekannten und erklärbaren abstrakten Konzepte ein neuronales Netz gelernt hat. Hier wird beispielsweise das Divide-And-Conquer-Verfahren angewandt. Es wird versucht, einzelne überschaubare Teile eines Modells für sich erklärbar zu machen mit der Intention, dass die Summe aller Teile das Ganze erklärbar macht. Ein anderer möglicher Ansatz ist es, die Merkmalszuordnung zu analysieren und zu bestimmen, wie eine Eingabe zu einer bestimmten Vorhersage beigetragen hat.
Abschließend kann Folgendes gesagt werden: Auch wenn eine grundsätzliche Erklärbarkeit der KI-Modelle mehr Vertrauen in die Ergebnisse erzeugt, die Fehlersuche verbessert und eine breitere und ggf. rechtlich bindende Anwendung ermöglicht, so existieren nicht nur Vorteile beim Einsatz von XAI.
Kritiker sagen, bei der Nutzung von XAI konzentriere man sich eventuell zu sehr auf den Prozess selbst und zu wenig auf das Ergebnis, auf das es eigentlich ankommt. Ebenso können komplexe Algorithmen per se schwierig zu erklären sein, unabhängig von ihrem technischen Einsatz in einem neuronalen Netz.
Nicht zuletzt gibt es Stimmen, die grundsätzlich infrage stellen, ob die menschliche Erklärbarkeit tatsächlich höher zu bewerten ist als die mathematische Korrektheit – nur weil diese aufgrund der „unzulänglichen“ kognitiven Fähigkeiten des Menschen nicht nachvollzogen werden könne.
Unabhängig davon wird aber die EU-Gesetzgebung, spätestens mit dem Artificial Intelligence Act oder auch der Hambacher Erklärung zur Künstlichen Intelligenz der Datenschutzkonferenz, ein Mindestmaß an Erklärbarkeit vorschreiben, möchte man in der EU eine KI-Anwendung entwickeln oder in Verkehr bringen. Zukünftig wird XAI daher eine integrale Rolle bei der Entwicklung von KI spielen.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.
download
DOWNLOAD
print
DRUCKEN

Unsere Produktempfehlungen

WIRTSCHAFTSINFORMATIK

WI – WIRTSCHAFTSINFORMATIK – ist das Kommunikations-, Präsentations- und Diskussionsforum für alle Wirtschaftsinformatiker im deutschsprachigen Raum. Über 30 Herausgeber garantieren das hohe redaktionelle Niveau und den praktischen Nutzen für den Leser.

Business & Information Systems Engineering

BISE (Business & Information Systems Engineering) is an international scholarly and double-blind peer-reviewed journal that publishes scientific research on the effective and efficient design and utilization of information systems by individuals, groups, enterprises, and society for the improvement of social welfare.

Wirtschaftsinformatik & Management

Texte auf dem Stand der wissenschaftlichen Forschung, für Praktiker verständlich aufbereitet. Diese Idee ist die Basis von „Wirtschaftsinformatik & Management“ kurz WuM. So soll der Wissenstransfer von Universität zu Unternehmen gefördert werden.

Metadaten
Titel
Künstliche Intelligenz und Erklärbarkeit
verfasst von
Prof. Dr. Marco Barenkamp
Publikationsdatum
14.09.2022
Verlag
Springer Fachmedien Wiesbaden
Erschienen in
Wirtschaftsinformatik & Management / Ausgabe 5/2022
Print ISSN: 1867-5905
Elektronische ISSN: 1867-5913
DOI
https://doi.org/10.1365/s35764-022-00428-0

Weitere Artikel der Ausgabe 5/2022

Wirtschaftsinformatik & Management 5/2022 Zur Ausgabe