Skip to main content
Top

2024 | OriginalPaper | Chapter

9. Erklärbarkeit

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

In diesem Kapitel wird aufgezeigt, dass es für viele Anwendungen von Verfahren des maschinellen Lernens wichtig ist, dass die Ausgaben von gelernten Modellen nachvollziehbar sind, etwa um unfaire Verzerrungen im Modell zu identifizieren, die bestimmte Personengruppen beachteiligen oder um zu prüfen, ob ein Modell irrelevante Merkmale zur Vorhersage nutzt (Kluger Hans Effekt). Dies ist insbesondere für Blackbox-Modelle wie neuronale Netze relevant. Das Thema Erklärbare KI (eXplainable AI, XAI) wird anhand von ausgewählten Ansätzen eingeführt. LIME wird als Vertreter der Methoden für Merkmals-Relevanz vorgestellt. Hier wird gezeigt, wie Mittels sogenannter perturbierter Beispiele nachvollzogen werden kann, welche Merkmale in der Eingabe ein Modell hauptsächlich für seine Entscheidung für eine Klasse genutzt hat. Als zweiter methodischer Zugang zur Erklärbarkeit werden kontrafaktische Erklärungen eingeführt. Abschließend wird die Modelltreue von Erklärungen diskutiert.

Dont have a licence yet? Then find out more about our products and how to get one now:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Literature
1.
go back to reference Amina Adadi und Mohammed Berrada. “Peeking inside the black-box: a survey on explainable artificial intelligence (XAI)”. In: IEEE access 6 (2018), S. 52138–52160. Amina Adadi und Mohammed Berrada. “Peeking inside the black-box: a survey on explainable artificial intelligence (XAI)”. In: IEEE access 6 (2018), S. 52138–52160.
2.
go back to reference Sebastian Lapuschkin u. a. “Unmasking Clever Hans predictors and assessing what machines really learn”. In: Nature communications 10.1 (2019), S. 1096. Sebastian Lapuschkin u. a. “Unmasking Clever Hans predictors and assessing what machines really learn”. In: Nature communications 10.1 (2019), S. 1096.
4.
go back to reference Scott M. Lundberg und Su-In Lee. “A Unified Approach to Interpreting Model Predictions”. In: Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems (NeurIPS 2017). Hrsg. von Isabelle Guyon u. a. 2017, S. 4765–4774. Scott M. Lundberg und Su-In Lee. “A Unified Approach to Interpreting Model Predictions”. In: Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems (NeurIPS 2017). Hrsg. von Isabelle Guyon u. a. 2017, S. 4765–4774.
5.
go back to reference Christoph Molnar. Interpretable machine learning. Lulu. com, 2020. Christoph Molnar. Interpretable machine learning. Lulu. com, 2020.
6.
go back to reference Vitali Petsiuk, Abir Das und Kate Saenko. “RISE: Randomized Input Sampling for Explanation of Black-box Models”. In: British Machine Vision Conference, BMVC 2018. BMVA Press, 2018, S. 151. Vitali Petsiuk, Abir Das und Kate Saenko. “RISE: Randomized Input Sampling for Explanation of Black-box Models”. In: British Machine Vision Conference, BMVC 2018. BMVA Press, 2018, S. 151.
7.
go back to reference Marco Tulio Ribeiro, Sameer Singh und Carlos Guestrin. ““Why should i trust you?” Explaining the predictions of any classifier”. In: Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. 2016, S. 1135–1144. Marco Tulio Ribeiro, Sameer Singh und Carlos Guestrin. ““Why should i trust you?” Explaining the predictions of any classifier”. In: Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. 2016, S. 1135–1144.
8.
go back to reference Ludwig Schallner u. a. “Effect of superpixel aggregation on explanations in lime-a case study with biological data”. In: Machine Learning and Knowledge Discovery in Databases: InternationalWorkshops of ECML PKDD 2019, Proceedings, Part I. Springer. 2020, S. 147–158. Ludwig Schallner u. a. “Effect of superpixel aggregation on explanations in lime-a case study with biological data”. In: Machine Learning and Knowledge Discovery in Databases: InternationalWorkshops of ECML PKDD 2019, Proceedings, Part I. Springer. 2020, S. 147–158.
9.
go back to reference Ute Schmid und KatharinaWeitz. “Künstliche Intelligenz und Psychologie -VonKognitiver Modellierung bis Erklärbarkeit”. In: Psychologie. Eine Einführung in ihre Grundlagen und Anwendungsfelder (6. Auflage). Hrsg. von A. Schütz u. a. Kohlhammer, 2022. Ute Schmid und KatharinaWeitz. “Künstliche Intelligenz und Psychologie -VonKognitiver Modellierung bis Erklärbarkeit”. In: Psychologie. Eine Einführung in ihre Grundlagen und Anwendungsfelder (6. Auflage). Hrsg. von A. Schütz u. a. Kohlhammer, 2022.
10.
go back to reference Ute Schmid und Britta Wrede. “Explainable AI”. In: Künstliche Intelligenz 36.3 (2022), S. 207–210. Ute Schmid und Britta Wrede. “Explainable AI”. In: Künstliche Intelligenz 36.3 (2022), S. 207–210.
11.
go back to reference Gesina Schwalbe und Bettina Finzel. “A comprehensive taxonomy for explainable artificial intelligence: a systematic survey of surveys on methods and concepts”. In: Data Mining and Knowledge Discovery (2023), S. 1–59. Gesina Schwalbe und Bettina Finzel. “A comprehensive taxonomy for explainable artificial intelligence: a systematic survey of surveys on methods and concepts”. In: Data Mining and Knowledge Discovery (2023), S. 1–59.
Metadata
Title
Erklärbarkeit
Author
Ute Schmid
Copyright Year
2024
DOI
https://doi.org/10.1007/978-3-658-44248-4_9

Premium Partner