Skip to main content

2022 | OriginalPaper | Buchkapitel

36. Explainable AI im Gesundheitswesen

verfasst von : Joachim Steinwendner

Erschienen in: Künstliche Intelligenz im Gesundheitswesen

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Künstliche Intelligenz (KI) erlaubt das automatische Lösen von Aufgaben ohne menschliche Interaktion. Im Bereich der medizinischen Diagnostik sind besonders tiefe neuronale Netze (Deep Learning) sehr erfolgreich. Je geringer die Bench-to-Bedside-Distanz, desto klarer werden die Probleme, die mit diesen Methoden einhergehen. Eine große Herausforderung ist die Notwendigkeit der Erklärbarkeit einer Aussage eines KI-Modells, die vor allem auch bei Blackbox-Modell genannten neuronalen Netze besteht. Für den behandelnden Gesundheitsdienstleister wird diese Frage jedoch immer wichtiger, je mehr diese Algorithmen in die Klinik drängen. Mit der Frage der Interpretierbarkeit oder Erklärbarkeit in diesem Zusammenhang beschäftigt sich das Feld der Explainable Artificial Intelligence (XAI).

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Literatur
Zurück zum Zitat Brkan, M., & Bonnet, G. (2020). Legal and technical feasibility of the GDPR's Quest for explanation of algorithmic decisions: Of Black Boxes, White Boxes and Fata Morganas. European Journal of Risk Regulation, 11, 18–50. Brkan, M., & Bonnet, G. (2020). Legal and technical feasibility of the GDPR's Quest for explanation of algorithmic decisions: Of Black Boxes, White Boxes and Fata Morganas. European Journal of Risk Regulation, 11, 18–50.
Zurück zum Zitat Haugeland, J. (1985). Artificial intelligence: The very idea. MIT Press. Haugeland, J. (1985). Artificial intelligence: The very idea. MIT Press.
Zurück zum Zitat Huang, M.-H., & Rust, R. T. (2018). Artificial intelligence in service. Journal of Service Research, 21(2), 155–172.CrossRef Huang, M.-H., & Rust, R. T. (2018). Artificial intelligence in service. Journal of Service Research, 21(2), 155–172.CrossRef
Zurück zum Zitat Kopitar, L., Cilar, L., Kocbek, P., & Stiglic, G. (2019). Local vs. Global interpretability of machine learning models in Type 2 diabetes mellitus screening. In M. Marcos (Hrsg.), Artificial intelligence in medicine: Knowledge representation and transparent and explainable systems. lecture notes in computer science (Bd. 11979, S. 108–119). Springer. Kopitar, L., Cilar, L., Kocbek, P., & Stiglic, G. (2019). Local vs. Global interpretability of machine learning models in Type 2 diabetes mellitus screening. In M. Marcos (Hrsg.), Artificial intelligence in medicine: Knowledge representation and transparent and explainable systems. lecture notes in computer science (Bd. 11979, S. 108–119). Springer.
Zurück zum Zitat Lundberg, S. M., & Lii, S.-I. (2017). A unified approach to interpreting model predictions. Advances in Neural Information Processing Systems, 30, 4765–4774. Lundberg, S. M., & Lii, S.-I. (2017). A unified approach to interpreting model predictions. Advances in Neural Information Processing Systems, 30, 4765–4774.
Zurück zum Zitat Lundberg, S. M., Nair, B., Vavilala, M. S., Horibe, M., Eisses, M. J., Adams, T., Liston, D. E., King-Wai, L. D., Newman, S.-F., Kim, J., & Lee, S.-I. (2018). Explainable machine-learning predictions for the prevention of hypoxaemia during surgery. Nature Biomedical Engineering, 2, 749–760.CrossRef Lundberg, S. M., Nair, B., Vavilala, M. S., Horibe, M., Eisses, M. J., Adams, T., Liston, D. E., King-Wai, L. D., Newman, S.-F., Kim, J., & Lee, S.-I. (2018). Explainable machine-learning predictions for the prevention of hypoxaemia during surgery. Nature Biomedical Engineering, 2, 749–760.CrossRef
Zurück zum Zitat Miller, T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267(6), 1–38. Miller, T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267(6), 1–38.
Zurück zum Zitat Poole, D., & Mackworth, A. (2017). Artificial intelligence: Foundations of computational agents. Cambridge University Press.CrossRef Poole, D., & Mackworth, A. (2017). Artificial intelligence: Foundations of computational agents. Cambridge University Press.CrossRef
Zurück zum Zitat Robnik-Sikonja, M., & Bohanec, M. (2018). Perturbation-based explanations of prediction models. Human and Machine Learning, 159–175. Robnik-Sikonja, M., & Bohanec, M. (2018). Perturbation-based explanations of prediction models. Human and Machine Learning, 159–175.
Zurück zum Zitat Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). Model-agnostic interpretability of machine learning. In Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. Association for Computing Machinery (ACM), 13–17 August, San Francisco, https://arxiv.org/abs/1606.05386. Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). Model-agnostic interpretability of machine learning. In Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. Association for Computing Machinery (ACM), 13–17 August, San Francisco, https://​arxiv.​org/​abs/​1606.​05386.
Zurück zum Zitat Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, 1, 206–215.CrossRef Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence, 1, 206–215.CrossRef
Zurück zum Zitat Shapley, L. S. (1953). A value for n-person games. Contributions to the Theory of Games, 2(28), 307–317. Shapley, L. S. (1953). A value for n-person games. Contributions to the Theory of Games, 2(28), 307–317.
Zurück zum Zitat Steinwendner, J. (2020). Klinische Entscheidungsunterstützungssysteme: Von der Datenrepräsentation zur künstlichen Intelligenz. In M. A. Pfannstiel, K. Kassel, & C. Rasche (Hrsg.), Innovationen und Innovationsmanagement im Gesundheitswesen Technologien, Produkte und Dienstleistungen voranbringen (S. 683–699). Springer .CrossRef Steinwendner, J. (2020). Klinische Entscheidungsunterstützungssysteme: Von der Datenrepräsentation zur künstlichen Intelligenz. In M. A. Pfannstiel, K. Kassel, & C. Rasche (Hrsg.), Innovationen und Innovationsmanagement im Gesundheitswesen Technologien, Produkte und Dienstleistungen voranbringen (S. 683–699). Springer .CrossRef
Zurück zum Zitat Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J., & Wojna, Z. (2016). Rethinking the inception architecture for computer vision. In IEEE conference on computer vision and pattern recognition (S. 2818–2826), Las Vegas, NV, U.S.A, 27.06.–30.06.2016, Institute of Electrical and Electronics Engineers (IEEE, Hrsg.). https://arxiv.org/abs/1512.00567. Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J., & Wojna, Z. (2016). Rethinking the inception architecture for computer vision. In IEEE conference on computer vision and pattern recognition (S. 2818–2826), Las Vegas, NV, U.S.A, 27.06.–30.06.2016, Institute of Electrical and Electronics Engineers (IEEE, Hrsg.). https://​arxiv.​org/​abs/​1512.​00567.
Zurück zum Zitat van Hoof, V., Wormek, A., Schleutermann, S., & Schumacher T. (2004). Medical expert systems developed in j.MD, a Java based expert system shell: Application in clinical laboratories. Studies in Health Technology and Informatics, 107(1), 89–93. van Hoof, V., Wormek, A., Schleutermann, S., & Schumacher T. (2004). Medical expert systems developed in j.MD, a Java based expert system shell: Application in clinical laboratories. Studies in Health Technology and Informatics, 107(1), 89–93.
Zurück zum Zitat Wiens, J., Saria, S., Sendak, M., Ghassemi, M., Liu, V.-X., Doshi-Velez, F., Jung, K., Heller, K., Kale, K., Saeed, M., Ossorio, P. N., Thadaney-Israni, S., & Goldenberg, A. (2019). Do no harm: A roadmap for responsible machine learning for health care. Nature Medicine, 25, 1337–1340.CrossRef Wiens, J., Saria, S., Sendak, M., Ghassemi, M., Liu, V.-X., Doshi-Velez, F., Jung, K., Heller, K., Kale, K., Saeed, M., Ossorio, P. N., Thadaney-Israni, S., & Goldenberg, A. (2019). Do no harm: A roadmap for responsible machine learning for health care. Nature Medicine, 25, 1337–1340.CrossRef
Metadaten
Titel
Explainable AI im Gesundheitswesen
verfasst von
Joachim Steinwendner
Copyright-Jahr
2022
DOI
https://doi.org/10.1007/978-3-658-33597-7_36