Skip to main content
Top

Hint

Swipe to navigate through the chapters of this book

2021 | OriginalPaper | Chapter

7. KI und Verantwortung

Author : Sven Krüger

Published in: Die KI-Entscheidung

Publisher: Springer Fachmedien Wiesbaden

share
SHARE

Zusammenfassung

Verantwortung in Zusammenhang mit künstlicher Intelligenz ist ein weites Feld. „Der in den meisten Fällen kommerzielle Einsatz der Technologie lädt ein, das Thema auf Produkthaftung zu reduzieren,“ aber algorithmische Entscheidungsunterstützungs- und Automatisierungssysteme sind weit mehr als ein Haufen Apps, mit denen Musik, Filme, Bilder und Texte usw. leichter gefunden und sortiert werden können. Die Einsatzfelder reichen von der Medien- und Unterhaltungsindustrie über die Finanz- und Versicherungswirtschaft, alle produzierenden Gewerbe bis in das Bildungssystem, die öffentliche Verwaltung und die militärischen Organisationen der Nationalstaaten. Geheimdienste gehören zu den aktivsten Anwendern. Die Ergebnisse der KI-Anwendung werden Grundlagen vieler gesellschaftlicher und individueller Entscheidungen. Nicht selten entscheiden Algorithmen über wirtschaftliche Existenzen und sogar Leben und Tod. Entsprechend relevant ist, wer wofür und wie verantwortlich ist.
Literature
go back to reference Agrawal, A., Gans, J., & Goldfarb, A. (2018). Prediction machines – The simple economies of artificial intelligence. Boston: Harvard Business Review Press. Agrawal, A., Gans, J., & Goldfarb, A. (2018). Prediction machines – The simple economies of artificial intelligence. Boston: Harvard Business Review Press.
go back to reference Bartneck, C., Yogeeswaran, K., Ser, Q., Woodward, G., Sparrow, R., Wang, S., & Eyssel, F. (2018). Robots and racism. In Proceedings of 2018 ACM/IEEE international conference on humanrobot interaction (S. 196–204). New York: ACM. Bartneck, C., Yogeeswaran, K., Ser, Q., Woodward, G., Sparrow, R., Wang, S., & Eyssel, F. (2018). Robots and racism. In Proceedings of 2018 ACM/IEEE international conference on humanrobot interaction (S. 196–204). New York: ACM.
go back to reference Bateson, G. (1972). Steps to an ecology of mind. Chicago: University of Chicago Press. Bateson, G. (1972). Steps to an ecology of mind. Chicago: University of Chicago Press.
go back to reference Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability, and transparency, proceedings of machine learning research, 81, S. 1–15. New York: New York University, 23.-24.02.2018. Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability, and transparency, proceedings of machine learning research, 81, S. 1–15. New York: New York University, 23.-24.02.2018.
go back to reference Crew, B. (2018). Google’s AI has learned to become „highly aggressive“ in stressful situations (31.03.2018). Crew, B. (2018). Google’s AI has learned to become „highly aggressive“ in stressful situations (31.03.2018).
go back to reference Dennett, D. C. (2019). What can we do? In J. Brockmann (Hrsg.), Possible minds: Twenty-five ways of looking at AI (S. 41-54). New York: Penguin Press. Dennett, D. C. (2019). What can we do? In J. Brockmann (Hrsg.), Possible minds: Twenty-five ways of looking at AI (S. 41-54). New York: Penguin Press.
go back to reference Heidegger, M. (1953). Die Frage nach der Technik. In F.-W. von Herrmann (Hrsg.), Gesamtausgabe. 1. Abteilung: Veröffentlichte Schriften 1910–1976 (Vorträge und Aufsätze (1936–1953), Bd. 7, S. 5–36). Frankfurt: Vittorio Klostermann. Heidegger, M. (1953). Die Frage nach der Technik. In F.-W. von Herrmann (Hrsg.), Gesamtausgabe. 1. Abteilung: Veröffentlichte Schriften 1910–1976 (Vorträge und Aufsätze (1936–1953), Bd. 7, S. 5–36). Frankfurt: Vittorio Klostermann.
go back to reference Jaume-Palasi, L., & Wiens, M. (2019). Können uns Algorithmen helfen, bessere Entscheidungen zu treffen? Interview. Neue Narrative, 5, 88–92. Jaume-Palasi, L., & Wiens, M. (2019). Können uns Algorithmen helfen, bessere Entscheidungen zu treffen? Interview. Neue Narrative, 5, 88–92.
go back to reference Juutinen, M., Wang, C., Zhu, J., Haladjian, J., Ruokolainen, J., Puustinen, J., & Vehkaoja, A. (2020). Parkinson's disease detection from 20-step walking tests using inertial sensors of a smartphone: Machine learning approach based on an observational case-control study (23.07.2020). PLoS One, 15(7), e0236258. https://​doi.​org/​10.​1371/​journal.​pone.​0236258. Zugegriffen am 12.03.2021. CrossRef Juutinen, M., Wang, C., Zhu, J., Haladjian, J., Ruokolainen, J., Puustinen, J., & Vehkaoja, A. (2020). Parkinson's disease detection from 20-step walking tests using inertial sensors of a smartphone: Machine learning approach based on an observational case-control study (23.07.2020). PLoS One, 15(7), e0236258. https://​doi.​org/​10.​1371/​journal.​pone.​0236258. Zugegriffen am 12.03.2021. CrossRef
go back to reference Latour, B. (2001). Eine Soziologie ohne Objekt? Anmerkungen zur Interobjektivität. Berliner Journal für Soziologie, 11(2), 237–252. CrossRef Latour, B. (2001). Eine Soziologie ohne Objekt? Anmerkungen zur Interobjektivität. Berliner Journal für Soziologie, 11(2), 237–252. CrossRef
go back to reference Leibo, J. Z., Zambaldi, V., Lanctot, M., Marecki, J., & Graepel, T. (2017). Multi-agent Reinforcement Learning in Sequential Social Dilemmas. In S. Das, E. Durfee, K. Larson & M. Winikoff (Hrsg.), Proceedings of the 16th International Conference on Autonomous Agents and Multiagent Systems (AAMAS 2017). May 8–12, 2017, Sao Paulo. Leibo, J. Z., Zambaldi, V., Lanctot, M., Marecki, J., & Graepel, T. (2017). Multi-agent Reinforcement Learning in Sequential Social Dilemmas. In S. Das, E. Durfee, K. Larson & M. Winikoff (Hrsg.), Proceedings of the 16th International Conference on Autonomous Agents and Multiagent Systems (AAMAS 2017). May 8–12, 2017, Sao Paulo.
go back to reference Luhmann, N. (1981). Die Unwahrscheinlichkeit der Kommunikation. In Ders (Hrsg.), Soziologische Aufklärung 3 (5. Aufl., 2009, S. 29–40). Wiesbaden: VS Verlag für Sozialwissenschaften. CrossRef Luhmann, N. (1981). Die Unwahrscheinlichkeit der Kommunikation. In Ders (Hrsg.), Soziologische Aufklärung 3 (5. Aufl., 2009, S. 29–40). Wiesbaden: VS Verlag für Sozialwissenschaften. CrossRef
go back to reference McNamara, A., Smith, J., & Murphy-Hill, E. (2018). Does ACM’s code of ethics change ethical decision making in software development? In Proceedings of the 2018 26th ACM joint meeting on European software engineering conference and symposium on the foundations of software engineering, 729. New York. https://​doi.​org/​10.​1145/​3236024.​3264833. Zugegriffen am 21.03.2021. McNamara, A., Smith, J., & Murphy-Hill, E. (2018). Does ACM’s code of ethics change ethical decision making in software development? In Proceedings of the 2018 26th ACM joint meeting on European software engineering conference and symposium on the foundations of software engineering, 729. New York. https://​doi.​org/​10.​1145/​3236024.​3264833. Zugegriffen am 21.03.2021.
go back to reference Misselhorn, C. (2018). Grundfragen der Maschinenethik. Ditzingen: Reclam. Misselhorn, C. (2018). Grundfragen der Maschinenethik. Ditzingen: Reclam.
go back to reference Müller, C. (2017) „Gibt es eine Neutralität der Technik? Grundlegende Aspekte der Technikkritik der Moderne“. In H. Baumann, M. Gallusser, R. Herzog, U. Klotz, C. Michel, B. Ringger, H. Schatz (Hrsgg.), Technisierte Gesellschaft, DENKNETZ Jahrbuch 2017, S. 53–62. Zürich: edition 8. Müller, C. (2017) „Gibt es eine Neutralität der Technik? Grundlegende Aspekte der Technikkritik der Moderne“. In H. Baumann, M. Gallusser, R. Herzog, U. Klotz, C. Michel, B. Ringger, H. Schatz (Hrsgg.), Technisierte Gesellschaft, DENKNETZ Jahrbuch 2017, S. 53–62. Zürich: edition 8.
go back to reference O’Neil, C. (2016). Weapons of math destruction. London: Penguin. O’Neil, C. (2016). Weapons of math destruction. London: Penguin.
go back to reference Richardson, R., Schultz, J., & Crawford, K. (13. Februar 2019). Dirty data, bad predictions: How civil rights violations impact police data, predictive policing systems, and justice. Social science research network. https://​ssrn.​com/​abstract=​3333423. Zugegriffen am 14.02.2021. Richardson, R., Schultz, J., & Crawford, K. (13. Februar 2019). Dirty data, bad predictions: How civil rights violations impact police data, predictive policing systems, and justice. Social science research network. https://​ssrn.​com/​abstract=​3333423. Zugegriffen am 14.02.2021.
go back to reference Scharre, P. (2018). Army of none: Autonomous weapons and the future of war. London: W. W. Norton & Company. Scharre, P. (2018). Army of none: Autonomous weapons and the future of war. London: W. W. Norton & Company.
go back to reference Striemer, R., & Gruhn, V. (2020). KI verändert den Blickwinkel: Aufgaben anders definieren, Prozesse anders sehen, Daten anders verstehen. In V. Gruhn & A. von Hayn (Hrsg.), KI verändert die Spielregeln (S. 42–59). München: Hanser. CrossRef Striemer, R., & Gruhn, V. (2020). KI verändert den Blickwinkel: Aufgaben anders definieren, Prozesse anders sehen, Daten anders verstehen. In V. Gruhn & A. von Hayn (Hrsg.), KI verändert die Spielregeln (S. 42–59). München: Hanser. CrossRef
go back to reference Watzlawick, P., Beavin, J. H., & Jackson, D. D. (1967). Pragmatics of human communication: A study of international patterns, pathologies and paradoxes. New York: W.W. Norton & Co. Watzlawick, P., Beavin, J. H., & Jackson, D. D. (1967). Pragmatics of human communication: A study of international patterns, pathologies and paradoxes. New York: W.W. Norton & Co.
go back to reference Wiener, N. (1954). The human use of human beings, cybernetics and society. [1950]. Boston: Houghton Mifflin. Wiener, N. (1954). The human use of human beings, cybernetics and society. [1950]. Boston: Houghton Mifflin.
go back to reference Zweig, K. A., Fischer, S., & Lischka, K. (2018). Wo Maschinen irren können. Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung. In Bertelsmann Stiftung (Hrsg.), Impuls Algorithmenethik #4. https://​doi.​org/​10.​11586/​2018006. Zugegriffen am 24.10.2020. Zweig, K. A., Fischer, S., & Lischka, K. (2018). Wo Maschinen irren können. Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung. In Bertelsmann Stiftung (Hrsg.), Impuls Algorithmenethik #4. https://​doi.​org/​10.​11586/​2018006. Zugegriffen am 24.10.2020.
Metadata
Title
KI und Verantwortung
Author
Sven Krüger
Copyright Year
2021
DOI
https://doi.org/10.1007/978-3-658-34874-8_7

Premium Partner