Skip to main content
Erschienen in:
Buchtitelbild

Open Access 2022 | OriginalPaper | Buchkapitel

Anwendungen und Lösungsansätze erklärbarer Künstlicher Intelligenz

verfasst von : Tom Kraus, Lene Ganschow

Erschienen in: Digitalisierung souverän gestalten II

Verlag: Springer Berlin Heidelberg

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Die Erklärbarkeit von Künstlicher Intelligenz (KI) ist in wichtigen Anwendungsfeldern relevant für die Zulassung und Zertifizierung oder die Kundenakzeptanz von KI-Produkten. Heute adressieren gängige Erklärungsansätze hauptsächlich die KI-Entwicklungsteams und das Personal mit Domänenexpertise, welches KI-Systeme in einem professionellen Umfeld bedient. Umfragen zeigen jedoch, dass die Erklärbarkeit von KI auch für Endkundinnen und -kunden sowie für das Management perspektivisch stark an Bedeutung gewinnen wird. In diesem Artikel diskutieren wir den grundsätzlichen Anwendungsbereich von erklärbarer KI, einige der etablierten Erklärungsstrategien sowie anschauliche Anwendungsbeispiele. Obwohl erste Orientierungshilfen für eine sinnvolle Auswahl von Strategien für Entscheidungserklärungen bereitstehen, besteht noch ein großes Entwicklungspotenzial in Bezug auf Erklärungsansätze, die Modellwirkmechanismen nachvollziehbarer machen können oder verhaltenswissenschaftliche Aspekte berücksichtigen.

1 Einleitung und Motivation

Der „Kluge Hans“ war ein Pferd, dem man um die vorletzte Jahrhundertwende herum nachsagte, dass es rechnen könne. Bei öffentlichen Vorführungen wurden dem Pferd Rechenaufgaben gestellt und es kommunizierte dann durch das Klopfen mit dem Vorderhuf auf den Boden mit dem Aufgabensteller. Die Anzahl der Hufschläge war mutmaßlich als Antwort des Pferdes bzw. die Lösung der Rechenaufgabe zu interpretieren, und das Pferd lag bei Vorführungen immer richtig. Es wurde daher schnell berühmt und Delegationen von Wissenschaftlern kamen, um das Pferd zu sehen bzw. zu untersuchen. Was sich jedoch alsbald herausstellte: Das Pferd löste keineswegs die Rechenaufgabe, sondern leitete die Antwort geschickt aus anderen Informationen ab, die es unerwarteterweise zu deuten wusste. Anstatt die Rechenaufgabe zu lösen, klopfte das Pferd nämlich solange mit dem Huf auf den Boden, bis es gewisse Veränderungen in Körpersprache und Mimik seines Aufgabenstellers entdeckte. Bemerkenswerterweise bewies das Pferd dieses feine Gespür selbst dann erfolgreich, wenn die aufgabenstellende Person ihm unbekannt war und sich in dem Moment, wenn das Pferd bei der passenden Anzahl von Hufschlägen angelangt war, durch ihr Verhalten unbewusst verriet.
Beim Einsatz von Künstlicher Intelligenz (KI) bzw. im Maschinellen Lernen (ML) kennt man einen sehr vergleichbaren Effekt ebenfalls (Lapuschkin et al. 2019). Man spricht vom Kluger-Hans- bzw. Clever-Hans-Effekt, wenn in einem Trainingsdatensatz, möglicherweise in versteckter Form, bestimmte Eingangsgrößen vorhanden sind, die mit der richtigen Ausgabe korrelieren, aber wenig mit der Ursache der jeweils adressierten Phänomene zu tun haben. Derartige Daten sollten für den praktischen Einsatz, insbesondere während des Trainings eines ML-Systems, keinesfalls herangezogen und in der Entwicklungsphase ausgeschlossen werden. Unabhängig von der konkreten Ausgestaltung des ML-Systems, insbesondere in Bezug auf das zugrunde liegende Modell, können Entscheidungen durch solche Daten wesentlich beeinflusst werden, falls ein Clever-Hans-Effekt unentdeckt bleibt. Es gibt mehrere einschlägige Beispiele, z. B. wenn in der Bilderkennung die Unterscheidung von Wölfen und Huskies (Schlittenhunde) aufgrund des Schnees im Hintergrund gemacht wird (Ribeiro et al. 2016) oder Pferde auf Fotos nur aufgrund eines Wasserzeichens erkannt werden, das zur Unterbindung unerlaubter Vervielfältigung eingeführt wurde (Cremers et al. 2019).
Es ist offensichtlich, dass ein unentdeckter Clever-Hans-Effekt je nach Anwendung schwerwiegende Folgen haben kann, wenn ein betroffenes KI-System nur vermeintlich das gestellte Problem löst, aber absehbar im realen Einsatz versagt bzw. willkürliche Entscheidungen trifft. Je nach Kritikalität der Anwendung ist vorstellbar, dass Menschen zu Schaden kommen oder benachteiligt werden oder zumindest großer wirtschaftlicher Schaden entsteht. Gerade bei vortrainierten KI-basierten Entscheidungsunterstützungssystemen liegt es im Interesse bzw. in der Verantwortung der Entwicklungsteams, solche Effekte auszuschließen. Je nach der konkreten Ausgestaltung des KI-Systems kann dies mit einem sehr unterschiedlich hohen Aufwand verbunden sein.
Das Auffinden eines Clever-Hans-Effektes ist eine von mehreren denkbaren Motivationen, die einen Anwender dazu veranlassen könnte, ein KI-System zu verwenden, das „erklärbar“ ist. Für solche Anwender ist es wichtig, die Kausalitätsbeziehungen einzelner Entscheidungen zu plausibilisieren und, falls nötig, den systematischen Bias in den Daten aufzuspüren. Je nach Anwendung und Zielgruppe können jedoch noch sehr viele weitere Ziele oder Erklärungen von Interesse sein (Arrieta et al. 2019; Kraus et al. 2021). Für andere Anwender mag es etwa bedeutsam sein zu testen, ob ein KI-System auf verwandte Problemstellungen übertragen werden kann oder wie empfindlich es auf bestimmte Störungen in den Eingangsdaten reagiert. Auch können die Erhöhung des Informationsgewinns oder des Privacy-Bewusstseins, die Verbesserung von Interaktionsmöglichkeiten sowie das Klären von Verantwortlichkeiten mögliche Zielsetzungen sein.

2 Erklärbare KI: Begriff und Anwendungsbereich

Eine einheitliche und allgemein anerkannte Taxonomie für „erklärbare KI“ hat sich bislang noch nicht herausgebildet (Arrieta et al. 2019; Adadi/Berrada 2018). Man findet in der Literatur häufig Variationen der Begriffsbestimmung, dass erklärbare KI-Systeme dedizierte ML-Systeme darstellen, die 1) spezifische Entscheidungen und spezifische Aktionen oder 2) ihre innere Funktionsweise bzw. die versteckte Logik des Systems besser verständlich machen.
Derartige Begriffsbestimmungen sind jedoch nur von praktischem Nutzen, wenn man sich darüber klar ist, in welchen Fällen eine Verbesserung der Erklärbarkeit von ML-Systemen eigentlich erforderlich ist.
Ob die Erklärbarkeit eines ML-Systems überhaupt verbessert werden muss oder sollte, hängt einerseits von der methodischen Ausgestaltung des Systems, andererseits von der individuellen Anwendung und den Interessen der adressierten Zielgruppen ab. Auf den Anwendungs- und Zielgruppenbezug kommen wir in Abschn. 4 nochmals zurück. Es ist jedoch zunächst entscheidend, wie das ML-System methodisch ausgestaltet wird, d. h., ob ohnehin ein gut nachvollziehbares White-Box-Modell oder ob ein schlechter nachvollziehbares Modell für das ML verwendet wird, für das wir im Folgenden die Bezeichnung „Black-Box-Modell“ verwenden wollen. Dabei bezeichnen wir im Sinne einer einfachen Konvention alle Modelle als Black Box, die die beiden im Nachfolgenden beschriebenen und grundlegenden Eigenschaften eines White-Box-Modells nicht erfüllen, nämlich algorithmische Transparenz und nachvollziehbare Eingangsgrößen.
White-Box-Modelle zeichnen sich aufgrund ihrer nachvollziehbaren Struktur durch einen hohen Transparenzgrad aus. Damit ein Modell als White-Box-Modell und somit als selbsterklärend gelten kann, muss es zumindest die grundlegende Eigenschaft der algorithmischen Transparenz (Lipton 2016) besitzen und in seiner konkreten Ausprägung nachvollziehbare Eingangsdaten verwenden (Kraus et al. 2021). Für die Eigenschaft der algorithmischen Transparenz ist von Bedeutung, dass nachvollziehbar ist, wie Modellinstanzen im Detail erzeugt werden, und wie der betreffende Algorithmus, der die Modellparameter bestimmt, mit möglichen Situationen umgeht, mit denen er konfrontiert sein könnte. Dabei ist diese Nachvollziehbarkeit nicht auf konkrete Daten und Modellausprägungen bezogen, sondern allgemein in Bezug auf unbekannte Input- bzw. Trainingsdaten zu verstehen. Beispiele von Modelltypen, die sich durch algorithmische Transparenz auszeichnen, sind etwa lineare oder logistische Regressionsmodelle, Entscheidungsbäume oder Bayes-Netze (Arrieta et al. 2019; Kraus et al. 2021), für die allesamt etablierte und deterministische Trainingsalgorithmen existieren. Damit diese Modelle jedoch auch als White-Box-Modelle gelten können, muss zusätzlich die Nachvollziehbarkeit der Eingangsdaten gegeben sein. Dies erfordert, dass die Größen, mit denen das Modell „gefüttert“ wird, intuitiv verständlich sind und nicht etwa bereits komplexe, vorverarbeitete Kombinationen von Kenngrößen darstellen. Für solche White-Box-Modelle, die nachvollziehbare Eingangsdaten nutzen und sich durch algorithmische Transparenz auszeichnen, ist in aller Regel keine Verbesserung der Erklärbarkeit erforderlich, da entsprechende Informationen z. B. zur Aufdeckung von Clever-Hans-Effekten oder zum Verständnis der Modellwirkmechanismen mit mehr oder minder großem Aufwand direkt abgeleitet werden können – auch wenn dies ggf. die Unterstützung von Expertinnen und Experten oder ein passendes User Interface erfordert.
Die sogenannten „Black-Box-Modelle“ zeichnen sich häufig durch eine höhere Flexibilität aus. Manche erlauben etwa den Umgang mit Daten, die nicht händisch vorverarbeitet wurden, andere nutzen eine Vielzahl von Freiheitsgraden, um den Einfluss unterschiedlichster Interaktionen von Eingangsgrößen auf das Ergebnis abbilden zu können. In der Regel können solche Modelle jedoch selbst von Personen mit einschlägiger KI-Expertise angesichts unübersehbarer interner Verflechtungen nur unzureichend nachvollzogen werden. Im Vergleich zu White-Box-Modellen ist das wesentliche Unterscheidungskriterium eines Black-Box-Modells, dass diesem Modelltyp die notwendige Eigenschaft der algorithmischen Transparenz fehlt (Arrieta et al. 2019; Kraus et al. 2021; Lipton 2016). Bei tiefen neuronalen Netzen kann man dies etwa daran festmachen, dass beim Prozess der Modellgenerierung trotz gleichbleibender Trainingsdatensätze stets grundlegend unterschiedliche Modellausprägungen erzeugt werden können, was auf die komplexen Verlustfunktionen (Datta et al. 2016; Kawaguchi 2016) und die heuristischen Optmierungsverfahren zurückzuführen ist (Arrieta et al. 2019), die aufgrund der Dimensionalität eingesetzt werden müssen. Weitere Beispiele für Black-Box-Modelle sind etwa Tree-Ensemble-Modelle oder Support Vector Machines (Arrieta et al. 2019; Kraus et al. 2021). Kommen solche Black-Box-Modelle zum Einsatz kann man − falls dies anwendungsseitig gewünscht ist − versuchen, die mangelnde Transparenz der Modelle zu kompensieren. Dies ist das eigentliche Anwendungsgebiet für „erklärbare“ KI.
Welches sind jedoch nun die eigentlichen Ansatzpunkte, um die oben genannten Aspekte von Erklärbarkeit bei Black-Box-Modellen, d. h. deren spezifischen Entscheidungen oder deren innere Funktionsweise bzw. deren versteckte Logik zu verbessern? Grundsätzlich gibt es eine breite Palette von Möglichkeiten, wie Erklärungen für die Entscheidungen eines KI-Systems bereitgestellt werden können. Je nach Anwendung, Datengrundlage und Zielgruppe kann hier die Übermittlung visueller, grafischer, textueller oder numerischer Information infrage kommen und nominell als Erklärung bezeichnet werden. Wie die spezifische Erklärungsgüte bewertet wird, kann hingegen von Person zu Person stark variieren, da der mit der Erklärung assoziierte Erkenntnisgewinn, abgesehen von der Anwendung, auch maßgeblich von dem individuellen Interesse und Vorwissen der Zielperson abhängt.

3 Erklärungsstrategien

Es wurden bereits zahlreiche Erklärungsstrategien entwickelt, die je nach Anwendungsfall besser oder schlechter geeignet sind, um individuelle Erklärungen für konkrete Anwendungen zu erzeugen. Die wesentliche Schwierigkeit besteht häufig in der Auswahl der geeigneten Methode. Für einige Strategien existieren bereits direkt verwendbare Implementierungen oder sie konnten sich sogar als industrieller Standard durchsetzen. Andere Methoden werden gerade erst im Rahmen von Forschungsprojekten erprobt. Im Folgenden werden einige etabliertere Ansätze kurz vorgestellt.

3.1 LIME

Eine der wohl bekanntesten Methoden zur Erzeugung von Erklärungen ist das Post-hoc-Analysewerkzeug LIME (Local Interpretable Model-Agnostic Explanations). „Post hoc“ bedeutet in diesem Zusammenhang, dass die Erklärung „nachträglich“ durch ein eigenständiges Analysewerkzeug generiert wird. Die Grundidee hinter LIME ist, dass mithilfe eines vereinfachten Modells das komplexe Black-Box-KI-Modell in einer lokalen Umgebung approximiert und somit die Nachvollziehbarkeit von konkreten Entscheidungen verbessert werden kann. Dieses neue Modell wird jedoch immer nur für einen lokalen Bereich und nicht zur generellen Erklärung des Black-Box-Modells verwendet. Dieses neue, vereinfachte Modell wird auf Basis mehrerer möglichst ähnlicher Entscheidungen des ursprünglichen Modells erstellt. Somit ist dieses abhängig von einer Auswahl von konkreten Entscheidungen. Durch die mehrfache Anwendung von LIME können folglich auch verschiedene lokale Modelle entstehen, die unterschiedliche Erklärungen für eine feste Entscheidung liefern, was in einigen Anwendungsfällen als Nachteil betrachtet wird. Ein Vorteil von LIME ist, dass die Vorgehensweise einfach in bestehende Programme integriert werden kann, da entsprechende Frameworks bereits existieren (Nguyen 2020; Ribeiro et al. 2016).
Als Anwendungsbeispiel wollen wir ein KI-Modell betrachten, das die Sterbewahrscheinlichkeit einer Patientin, abhängig von unterschiedlichen Faktoren, unter anderem ihrem Alter, ihren Vorerkrankungen und ihrer Fitness, vorhersagt. Angenommen, die vom KI-Modell vorhergesagte Sterbewahrscheinlichkeit für eine konkrete Patientin wäre 15 % und für dieses Ergebnis würde eine Erklärung gesucht werden, so könnte das KI-Modell auf weitere Patientinnen mit ähnlichen Voraussetzungen (z. B. ähnliches Alter, ähnliche Vorerkrankungen, ähnliche Fitness) angewendet und mit dem ursprünglichen Ergebnis verglichen werden. Genau auf der Grundlage von derartigen ähnlichen Ergebnisssen kann mit LIME nun ein lokales, vereinfachtes Modell erstellt werden, mit dem Erklärungen, wie z. B. Entscheidungsgrenzen, für konkrete Ergebnisse des Black-Box-Modells (immer bezogen auf einen bestimmten Bereich) abgeleitet werden. Beispielsweise könnte im individuellen Fall eine besonders gute körperliche Fitness zur Ausgabe einer geringeren Sterbewahrscheinlichkeit beigetragen haben.

3.2 Surrogat- oder Stellvertretermodelle

Die Verwendung von Surrogat- oder Stellvertretermodellen ähnelt dem Ansatz von LIME. Hier wird ebenfalls ein vereinfachtes Modell erstellt, das das ursprüngliche Black-Box-Modell zum Zweck der Erklärungsgenerierung approximieren soll – allerdings hier in aller Regel im gesamten Datenbereich. Als Surrogatmodell können beispielsweise Entscheidungsbäume eingesetzt werden, deren Ergebnisse leicht nachvollzogen werden können. Surrogatmodelle können auf Grundlage von Paaren aus Ein- und Ausgabewerten erstellt werden, sodass die Art des zugrunde liegenden KI-Modells (z. B. neuronales Netz oder Bayes-Ensemble-Modell), wie auch bei LIME, nicht relevant ist. Bei einem Surrogatmodell handelt es sich immer nur um eine Approximation, deren Repräsentativität im Vergleich zum ursprünglichen Modell schwer messbar ist (Adadi/Berrada 2018; Danilevsky et al. 2020; Molnar 2019).
Als Beispiel könnte man sich ein KI-Modell vorstellen, das für einen Fahrradverleih die Anzahl der ausgeliehenen Räder vorhersagen soll. Die Menge hängt von vielen unterschiedlichen Faktoren ab, wie beispielsweise dem Wochentag, der Jahreszeit und dem Wetterbericht. Entsprechend wurde ein komplexes, nicht leicht nachvollziehbares KI-Modell entwickelt, das all diese Faktoren betrachtet. Um einzelne Entscheidungen erklären zu können, kann bei Bedarf ein zweites Modell erstellt werden, beispielsweise ein Entscheidungsbaum, der nicht in der Lage ist, die gesamte Komplexität des ursprünglichen Modells abzubilden, dafür aber leicht nachvollzogen werden kann. So können Einflüsse besonders ausschlaggebender Faktoren, wie beispielsweise des Wetterberichts, dank des Surrogatmodells identifiziert werden.

3.3 Erstellung von Saliency Maps

Erklärungsstrategien lassen sich hinsichtlich verschiedener Faktoren einteilen. Betrachtet man die Art der bereitgestellten Erklärung, werden insbesondere zur Erklärung der Entscheidungen neuronaler Netze oft bildhafte Darstellungen verwendet. Sollen beispielsweise Objekte auf Bildern erkannt und klassifiziert werden, so können unter Verwendung einer entsprechenden Methode die für die konkrete Klassifikation ausschlaggebenden Pixel oder Bereiche auf dem Ursprungsbild hervorgehoben werden. Diese Hervorhebungen werden auch als „Saliency Maps“ bezeichnet. Saliency Maps können beispielsweise mit Methoden wie Integrated Gradients, Layer-wise Relevance Propagation (LRP) oder Gradient-weighted Class Activation Mapping (GradCAM bzw. CAM) erzeugt werden.
Bei der Methode Integrated Gradients wird eine neutrale Baseline (beispielsweise ein komplett schwarzes Bild) verwendet und eine Menge von Bildern „zwischen“ dieser Baseline und dem Ursprungsbild erzeugt, die sich jeweils nur wenig voneinander unterscheiden (siehe Abb. 1).
Geht es nun darum, das Ergebnis einer konkreten Klassifikation eines neuronalen Netzes zu erklären, so wird nicht nur für das Originalbild, sondern für jedes der erzeugten Bilder ein Vorhersagewert berechnet. Über auffällige Änderungen dieses Wertes zwischen einzelnen Bildern und die anschließende Berechnung von Gradienten können Bildbereiche identifiziert werden, die besonders wichtig für das Klassifikationsergebnis waren. Die Methode Integrated Gradients gilt als industrieller Standard. Ein Nachteil ist jedoch, dass die Ergebnisse stark von der Wahl der Baseline abhängig sind und es nicht immer klar ist, wie diese am besten gewählt wird (Bhatt et al. 2019; Google 2020; Sundararajan et al. 2017).

3.4 Prototypen

Eine weitere Methode, die unabhängig vom konkreten KI-Modell eingesetzt werden kann, sind sogenannte Prototypen. Bei einer Klassifizierungsaufgabe werden für die einzelnen Klassen sogenannte Repräsentationen erstellt, die die für die jeweilige Klasse charakteristischen Merkmale enthalten. Abb. 2 zeigt beispielhaft Repräsentationen einzelner Ziffern für die Verarbeitung von Bilddaten.
Soll nun eine Entscheidung eines KI-Modells erklärt werden, so kann das Ergebnis mit dem jeweiligen Prototyp verglichen und Übereinstimmungen können hervorgehoben werden. Die Anzahl der Prototypen kann je nach Anwendungsfall frei gewählt werden. Dies kann allerdings auch ein Nachteil sein, da nicht immer im Vorfeld klar ist, wie viele verschiedene Klassen sinnvoll sind (Barbalau et al. 2020; Li et al. 2017; Molnar 2019). Ein weiteres anschauliches Beispiel für die Anwendung von Prototypen findet sich auch im folgenden Abschnitt.
In der Literatur sind viele weitere Erklärungsstrategien zu finden, die für unterschiedlichste Voraussetzungen entwickelt wurden, z. B. hinsichtlich der Art des KI-Modells, des Typs oder der Dimensionalität der Daten. In der Praxis fehlt es teilweise noch an Best Practices, die bei der Auswahl einer geeigneten Methode für einen konkreten Anwendungsfall unterstützen würden, obwohl erste praktische Orientierungshilfen existieren, die diesen Prozess erleichtern (Kraus et al. 2021; Schaaf et al. 2021).

4 Anwendungen

Im vorherigen Abschnitt wurden ausschließlich etablierte Erklärungsstrategien beschrieben, die dabei helfen, individuelle Entscheidungen besser nachvollziehen zu können. In vielen Fällen reicht dies zumindest aus Sicht der Primäranwender der KI-Systeme aus.
Anwendungsbeispiele finden sich etwa in der Gesundheitswirtschaft, wenn Entscheidungsunterstützungssysteme dem medizinischen Personal helfen sollen, Auffälligkeiten in patientenbezogenen Datensätzen zu identifizieren. Zielgruppengerechte Erklärungen lassen sich etwa durch visuelle Hervorhebung bereitstellen.
Dies gilt insbesondere, falls Bild- oder Videodaten durch KI-gestützte Anwendungen verarbeitet werden. Mithilfe von KI-basierten Computer-Vision-Systemen können z. B. Pathologen unterstützt werden, das Risiko für Fehlentscheidungen bei der Tumorerkennung zu reduzieren, indem Bilder von Gewebedaten mithilfe neuronaler Netze auf Auffälligkeiten überprüft werden (Kraus et al. 2021). Dabei genügt es für eine Prüfung durch eine einschlägig geschulte Person nicht, dass das System nur einen numerischen Konfidenzwert bereitstellt, aus dem das medizinische Personal im Zweifel wenig Nutzen für eine Patientendiagnose ziehen kann. Eine gangbare Erklärungsstrategie ist stattdessen, die Bildbereiche für den Arzt hervorzuheben, die für die Klassifikation eines Tumors durch das KI-System maßgeblich waren. Für die Erstellung dieser Saliency Maps können Post-Hoc-Erklärungswerkzeuge, wie z. B. LRP, CAM, Integrated Gradients oder LIME verwendet werden.
Ein weiterer beispielhafter Anwendungsfall aus dem Gesundheitswesen ist die Analyse von Arztbriefen zur automatisierten Zuordnung von Krankheitsbildern oder zur Identifikation von ähnlichen Krankheitsverläufen (Kraus et al. 2021). Ein Arztbrief beinhaltet dabei eine Zusammenfassung der Krankengeschichte eines Patienten, z. B. zu erfolgten Untersuchungen und Symptomen. In schwierigeren Fällen wird auf die sogenannte Differentialdiagnose zurückgegriffen, was die Betrachtung möglicher Krankheitsbilder unter Berücksichtigung der Symptome und den Ausschluss von nicht relevanten Krankheitsbildern beinhaltet. Dabei können KI-Systeme das medizinische Personal unterstützen, möglichst sichere Diagnosen zu treffen, indem sie Vorschläge zu möglichen Krankheitsbildern machen − auf Basis einer Ähnlichkeitsanalyse von Arztbriefen, die in Textform vorliegen. Mithilfe von Verfahren des Natural Language Processing bzw. neuronaler Netze (Transformer Networks) können Arztbriefe analysiert werden. Um die Ähnlichkeitsanalyse jedoch für medizinisch geschulte Personen möglichst gut nutzbar zu machen, bietet sich hier die Erklärungsstrategie an, Prototypen anzulegen. Dazu wird für jede Krankheit ein Prototyp erstellt, der häufig auftretende Symptome enthält. Wird nun für einen konkreten Patienten das Krankheitsbild bestimmt, können anschließend die im zugehörigen Prototypen beschriebenen Symptome mit den Symptomen des Patienten abgeglichen und Gemeinsamkeiten dargestellt werden, um die Entscheidung des KI-Modells verständlicher zu gestalten. Diese Erklärungsgrundlage ermöglicht dem Arzt zu entscheiden, ob vorgeschlagene Krankheitsbilder aus medizinischer Sicht sinnvoll sind und in die Differentialdiagnose einfließen sollten.
Gleichzeitig ist die Akzeptanz der Primäranwender nicht immer ausreichend, um alle Anforderungen an Erklärbarkeit zu erfüllen. In regulierten Branchen wie der Gesundheitswirtschaft muss in der Regel auch ein Konzept für die zulassenden Behörden mit Bezug auf Aspekte wie Funktionssicherheit und die diesbezügliche Erklärbarkeit generiert werden, da dies das Risikomanagement tangiert. Inwiefern hier Nachweise in Bezug auf Entscheidungserklärungen ausreichen oder ob auch Modellwirkmechanismen nachvollziehbar gemacht werden müssen, ist in diversen regulierten Anwendungsbranchen in Bezug auf KI-Systeme nicht oder nicht zufriedenstellend geklärt (Kraus et al. 2021). Hier besteht in diversen Branchen noch großer Nachholbedarf. Insbesondere die Medizinprodukteverordnung ist in Bezug auf KI-gestützte Produkte noch ziemlich unklar. Es gibt jedoch im Gesundheitsbereich erste in Europa bzw. Deutschland zugelassene KI-basierte Computer-Vision-Systeme, die auf neuronalen Netzen beruhen. Dies zeigt, dass Zulassungsprozesse punktuell und unter gewissen Umständen bereits erfolgreich waren, auch wenn diese Computer-Vision-Systeme vermutlich „nur“ Entscheidungserklärungen bereitstellen, was derzeit gemäß dem Stand der Technik möglich ist.
Die Anforderungen der Anwender an KI-basierte Entscheidungsunterstützungssysteme können jedoch auch anders aussehen. Dies zeigt sich etwa bei typischen KI-Anwendungen im Zusammenhang mit Produktionsanlagen im Bereich Condition Monitoring bzw. Predictive Maintenance (Kraus et al. 2021). Stillstände von entsprechenden Apparaten und Maschinen führen häufig zu teuren Produktionsausfällen. Dies kann enormen wirtschaftlichen Schaden zur Folge haben. KI-basierte Frühwarnsysteme, die Fehlverhalten anzeigen oder nötige Wartungsarbeiten empfehlen können, verarbeiten zu diesem Zweck große Mengen an typischerweise numerischen Daten, die während des Anlagenbetriebs anfallen. Gleichfalls sind explizite Fehlercodes Grundlage für das Training der zugehörigen KI-Modelle. Aus Sicht der primären Zielgruppe, der Instandhaltungsteams, muss jedoch im realen Einsatz ein KI-System, das Anomalien im Maschinenverhalten erkennen soll, zuverlässig funktionieren. Entscheidungserklärungen können im Einzelfall wichtig sein, wenn ein Fehler schnell zugeordnet werden muss.
Häufig benötigen die Instandhaltungsteams jedoch die Möglichkeit, das Modell als Ganzes auf seine Zuverlässigkeit zu überprüfen. Wenn es sich bei dem Ausgangsmodell um ein Black-Box-Modell handelt, kann als Erklärungsstrategie ein Stellvertreter- oder Surrogatmodell in Frage kommen, das auf Basis des Ursprungsmodells und/oder realer Betriebsdaten erstellt wird. Wenn z. B. ein Entscheidungsbaum als Surrogatmodell verwendet wird, lassen sich Entscheidungsgrenzen und Zwischenergebnisse dieses Stellvertretermodells einfach und schnell interpretieren. Auch lassen sich sogar Modellwirkmechanismen des Surrogatmodels nachvollziehen. Dabei ist jedoch zu beachten, dass ein Stellvertretermodell natürlicherweise verschieden von dem Modell ist, das die Entscheidungen trifft. Folglich sind alle Erklärungen, die vom Stellvertretermodell abgeleitet werden, im eigentlichen Sinne nur gültig in Bezug auf das Surrogatmodell und nur in eingeschränktem Maße auf das Modell übertragbar, das die Entscheidung trifft.
In den Anwendungsbeispielen spielt Erklärbarkeit insbesondere für die KI-Entwicklungsteams sowie für die jeweiligen Domänenexpertinnen und -experten eine wichtige Rolle. Umfragen unter Brancheninsidern bestätigen dies auch bei branchenübergreifender Betrachtung (Kraus et al. 2021), wobei die Bedeutung von Erklärbarkeit in fünf bis zehn Jahren auch für Endkundinnen und -kunden, die Managementebene sowie interne und externe Prüferinnen und Prüfer steigen wird.

5 Zusammenfassung und Ausblick

Für die Bereitstellung von Entscheidungserklärungen existiert bereits eine umfangreiche Sammlung von Werkzeugen, die aufgrund von wissenschaftlichen Neuveröffentlichungen stetig erweitert wird. Gleichzeitig zeigen Befragungen von Fachleuten, dass diese Werkzeuge in der Regel nur für Personen mit entsprechender Expertise nutzbar sind und für Unternehmen verwertbare Best Practices heute häufig noch fehlen (Kraus et al. 2021). Praktische Orientierungshilfen für die Auswahl geeigneter Erklärungsstrategien für Einzelentscheidungen in Abhängigkeit u. a. von KI-Expertise, Datentyp und Laufzeit existieren jedoch bereits (Kraus et al. 2021; Schaaf et al. 2021).
Gleichzeitig existieren auch Anwendungsfälle, in denen die Erklärbarkeit von Einzelentscheidungen heute noch nicht ausreicht. Dies kann durch Kundenanforderungen oder eine entsprechende Regulierung begründet sein. Um KI-Anwendungen für solche Fälle bereitzustellen, ist es faktisch unvermeidlich, die Nachvollziehbarkeit von Modellwirkmechanismen zu ermöglichen. Andernfalls ist die Nichtzulassung oder die Nichtakzeptanz des Produktes durch den Markt ein enormes Risiko. Aus heutiger Sicht ist keine Entwicklung eines omnipotenten Post-hoc-Erklärungswerkzeuges absehbar, das für beliebige Black-Box-Ansätze wie z. B. tiefe neuronale Netze passende und quantitativ interpretierbare Modellerklärungen generieren könnte. Eine aussichtsreiche Forschungsausrichtung stellt daher die Hybridisierung von daten- und wissensgetriebenen Ansätzen dar, die White-Box- mit Black-Box-Komponenten kombinieren und eigenständig Erklärungen bereitstellen, falls die Nutzung von White-Box-Lösungen nicht in Frage kommt. Es existieren einzelne laufende Forschungsvorhaben, die solche hybriden Ansätze aktiv verfolgen (Kraus et al. 2021). Es ist jedoch noch zu untersuchen, auf welche Anwendungsgebiete sich diese aussichtsreichen Ansätze aus technischer Sicht übertragen lassen. Auch stellt die Berücksichtigung verhaltenswissenschaftlicher Aspekte, wie die Messbarkeit der Erklärungsgüte oder die automatisierte Erklärungsanpassung an Nutzende und selbstlernende Systeme, eine wichtige, jedoch sehr herausfordernde Aufgabe der Forschung dar, um die Erklärbarkeit von KI-Systemen langfristig zu verbessern (Kraus et al. 2021).
Klar ist aber, dass die Sicherstellung von Nachvollziehbarkeit bzw. Erklärbarkeit im Regelfall einen hohen Aufwand bei der KI-Systementwicklung bedeutet. Daher wird die praktische Umsetzung einer KI-Regulierung in den europäischen Mitgliedsländern − und entsprechend zu formulierende Anforderungen an Erklärbarkeit − einen enormen Einfluss auf die Zukunft des Forschungsfeldes nehmen.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Literatur
Zurück zum Zitat Arrieta, A.B., Díaz-Rodríguez, N., Ser, J.D., Bennetot, A., Tabik, S., Barbado, A., García, S., Gil-López, S., Molina, D., Benjamins, R., Chatila, R., Herrera, F.: Explainable artificial intelligence (XAI): concepts, taxonomies, opportunities and challenges toward responsible AI. http://arxiv.org/pdf/1910.10045v2 (2019). Zugegriffen: 14. Apr. 2021 Arrieta, A.B., Díaz-Rodríguez, N., Ser, J.D., Bennetot, A., Tabik, S., Barbado, A., García, S., Gil-López, S., Molina, D., Benjamins, R., Chatila, R., Herrera, F.: Explainable artificial intelligence (XAI): concepts, taxonomies, opportunities and challenges toward responsible AI. http://​arxiv.​org/​pdf/​1910.​10045v2 (2019). Zugegriffen: 14. Apr. 2021
Zurück zum Zitat Lapuschkin, S., Wäldchen, S., Binder, A., Montavon, G., Samek, W., Müller, K.-R.: Unmasking Clever Hans predictors and assessing what machines really learn. Nat. Commun. 10(1), 1096 (2019) Lapuschkin, S., Wäldchen, S., Binder, A., Montavon, G., Samek, W., Müller, K.-R.: Unmasking Clever Hans predictors and assessing what machines really learn. Nat. Commun. 10(1), 1096 (2019)
Metadaten
Titel
Anwendungen und Lösungsansätze erklärbarer Künstlicher Intelligenz
verfasst von
Tom Kraus
Lene Ganschow
Copyright-Jahr
2022
Verlag
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-64408-9_4

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen.