Skip to main content

Tipp

Weitere Kapitel dieses Buchs durch Wischen aufrufen

2021 | OriginalPaper | Buchkapitel

7. KI und Verantwortung

verfasst von : Sven Krüger

Erschienen in: Die KI-Entscheidung

Verlag: Springer Fachmedien Wiesbaden

share
TEILEN

Zusammenfassung

Verantwortung in Zusammenhang mit künstlicher Intelligenz ist ein weites Feld. „Der in den meisten Fällen kommerzielle Einsatz der Technologie lädt ein, das Thema auf Produkthaftung zu reduzieren,“ aber algorithmische Entscheidungsunterstützungs- und Automatisierungssysteme sind weit mehr als ein Haufen Apps, mit denen Musik, Filme, Bilder und Texte usw. leichter gefunden und sortiert werden können. Die Einsatzfelder reichen von der Medien- und Unterhaltungsindustrie über die Finanz- und Versicherungswirtschaft, alle produzierenden Gewerbe bis in das Bildungssystem, die öffentliche Verwaltung und die militärischen Organisationen der Nationalstaaten. Geheimdienste gehören zu den aktivsten Anwendern. Die Ergebnisse der KI-Anwendung werden Grundlagen vieler gesellschaftlicher und individueller Entscheidungen. Nicht selten entscheiden Algorithmen über wirtschaftliche Existenzen und sogar Leben und Tod. Entsprechend relevant ist, wer wofür und wie verantwortlich ist.
Literatur
Zurück zum Zitat Agrawal, A., Gans, J., & Goldfarb, A. (2018). Prediction machines – The simple economies of artificial intelligence. Boston: Harvard Business Review Press. Agrawal, A., Gans, J., & Goldfarb, A. (2018). Prediction machines – The simple economies of artificial intelligence. Boston: Harvard Business Review Press.
Zurück zum Zitat Bartneck, C., Yogeeswaran, K., Ser, Q., Woodward, G., Sparrow, R., Wang, S., & Eyssel, F. (2018). Robots and racism. In Proceedings of 2018 ACM/IEEE international conference on humanrobot interaction (S. 196–204). New York: ACM. Bartneck, C., Yogeeswaran, K., Ser, Q., Woodward, G., Sparrow, R., Wang, S., & Eyssel, F. (2018). Robots and racism. In Proceedings of 2018 ACM/IEEE international conference on humanrobot interaction (S. 196–204). New York: ACM.
Zurück zum Zitat Bateson, G. (1972). Steps to an ecology of mind. Chicago: University of Chicago Press. Bateson, G. (1972). Steps to an ecology of mind. Chicago: University of Chicago Press.
Zurück zum Zitat Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability, and transparency, proceedings of machine learning research, 81, S. 1–15. New York: New York University, 23.-24.02.2018. Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability, and transparency, proceedings of machine learning research, 81, S. 1–15. New York: New York University, 23.-24.02.2018.
Zurück zum Zitat Crew, B. (2018). Google’s AI has learned to become „highly aggressive“ in stressful situations (31.03.2018). Crew, B. (2018). Google’s AI has learned to become „highly aggressive“ in stressful situations (31.03.2018).
Zurück zum Zitat Dennett, D. C. (2019). What can we do? In J. Brockmann (Hrsg.), Possible minds: Twenty-five ways of looking at AI (S. 41-54). New York: Penguin Press. Dennett, D. C. (2019). What can we do? In J. Brockmann (Hrsg.), Possible minds: Twenty-five ways of looking at AI (S. 41-54). New York: Penguin Press.
Zurück zum Zitat Heidegger, M. (1953). Die Frage nach der Technik. In F.-W. von Herrmann (Hrsg.), Gesamtausgabe. 1. Abteilung: Veröffentlichte Schriften 1910–1976 (Vorträge und Aufsätze (1936–1953), Bd. 7, S. 5–36). Frankfurt: Vittorio Klostermann. Heidegger, M. (1953). Die Frage nach der Technik. In F.-W. von Herrmann (Hrsg.), Gesamtausgabe. 1. Abteilung: Veröffentlichte Schriften 1910–1976 (Vorträge und Aufsätze (1936–1953), Bd. 7, S. 5–36). Frankfurt: Vittorio Klostermann.
Zurück zum Zitat Jaume-Palasi, L., & Wiens, M. (2019). Können uns Algorithmen helfen, bessere Entscheidungen zu treffen? Interview. Neue Narrative, 5, 88–92. Jaume-Palasi, L., & Wiens, M. (2019). Können uns Algorithmen helfen, bessere Entscheidungen zu treffen? Interview. Neue Narrative, 5, 88–92.
Zurück zum Zitat Juutinen, M., Wang, C., Zhu, J., Haladjian, J., Ruokolainen, J., Puustinen, J., & Vehkaoja, A. (2020). Parkinson's disease detection from 20-step walking tests using inertial sensors of a smartphone: Machine learning approach based on an observational case-control study (23.07.2020). PLoS One, 15(7), e0236258. https://​doi.​org/​10.​1371/​journal.​pone.​0236258. Zugegriffen am 12.03.2021. CrossRef Juutinen, M., Wang, C., Zhu, J., Haladjian, J., Ruokolainen, J., Puustinen, J., & Vehkaoja, A. (2020). Parkinson's disease detection from 20-step walking tests using inertial sensors of a smartphone: Machine learning approach based on an observational case-control study (23.07.2020). PLoS One, 15(7), e0236258. https://​doi.​org/​10.​1371/​journal.​pone.​0236258. Zugegriffen am 12.03.2021. CrossRef
Zurück zum Zitat Latour, B. (2001). Eine Soziologie ohne Objekt? Anmerkungen zur Interobjektivität. Berliner Journal für Soziologie, 11(2), 237–252. CrossRef Latour, B. (2001). Eine Soziologie ohne Objekt? Anmerkungen zur Interobjektivität. Berliner Journal für Soziologie, 11(2), 237–252. CrossRef
Zurück zum Zitat Leibo, J. Z., Zambaldi, V., Lanctot, M., Marecki, J., & Graepel, T. (2017). Multi-agent Reinforcement Learning in Sequential Social Dilemmas. In S. Das, E. Durfee, K. Larson & M. Winikoff (Hrsg.), Proceedings of the 16th International Conference on Autonomous Agents and Multiagent Systems (AAMAS 2017). May 8–12, 2017, Sao Paulo. Leibo, J. Z., Zambaldi, V., Lanctot, M., Marecki, J., & Graepel, T. (2017). Multi-agent Reinforcement Learning in Sequential Social Dilemmas. In S. Das, E. Durfee, K. Larson & M. Winikoff (Hrsg.), Proceedings of the 16th International Conference on Autonomous Agents and Multiagent Systems (AAMAS 2017). May 8–12, 2017, Sao Paulo.
Zurück zum Zitat Luhmann, N. (1981). Die Unwahrscheinlichkeit der Kommunikation. In Ders (Hrsg.), Soziologische Aufklärung 3 (5. Aufl., 2009, S. 29–40). Wiesbaden: VS Verlag für Sozialwissenschaften. CrossRef Luhmann, N. (1981). Die Unwahrscheinlichkeit der Kommunikation. In Ders (Hrsg.), Soziologische Aufklärung 3 (5. Aufl., 2009, S. 29–40). Wiesbaden: VS Verlag für Sozialwissenschaften. CrossRef
Zurück zum Zitat McNamara, A., Smith, J., & Murphy-Hill, E. (2018). Does ACM’s code of ethics change ethical decision making in software development? In Proceedings of the 2018 26th ACM joint meeting on European software engineering conference and symposium on the foundations of software engineering, 729. New York. https://​doi.​org/​10.​1145/​3236024.​3264833. Zugegriffen am 21.03.2021. McNamara, A., Smith, J., & Murphy-Hill, E. (2018). Does ACM’s code of ethics change ethical decision making in software development? In Proceedings of the 2018 26th ACM joint meeting on European software engineering conference and symposium on the foundations of software engineering, 729. New York. https://​doi.​org/​10.​1145/​3236024.​3264833. Zugegriffen am 21.03.2021.
Zurück zum Zitat Misselhorn, C. (2018). Grundfragen der Maschinenethik. Ditzingen: Reclam. Misselhorn, C. (2018). Grundfragen der Maschinenethik. Ditzingen: Reclam.
Zurück zum Zitat Müller, C. (2017) „Gibt es eine Neutralität der Technik? Grundlegende Aspekte der Technikkritik der Moderne“. In H. Baumann, M. Gallusser, R. Herzog, U. Klotz, C. Michel, B. Ringger, H. Schatz (Hrsgg.), Technisierte Gesellschaft, DENKNETZ Jahrbuch 2017, S. 53–62. Zürich: edition 8. Müller, C. (2017) „Gibt es eine Neutralität der Technik? Grundlegende Aspekte der Technikkritik der Moderne“. In H. Baumann, M. Gallusser, R. Herzog, U. Klotz, C. Michel, B. Ringger, H. Schatz (Hrsgg.), Technisierte Gesellschaft, DENKNETZ Jahrbuch 2017, S. 53–62. Zürich: edition 8.
Zurück zum Zitat O’Neil, C. (2016). Weapons of math destruction. London: Penguin. O’Neil, C. (2016). Weapons of math destruction. London: Penguin.
Zurück zum Zitat Richardson, R., Schultz, J., & Crawford, K. (13. Februar 2019). Dirty data, bad predictions: How civil rights violations impact police data, predictive policing systems, and justice. Social science research network. https://​ssrn.​com/​abstract=​3333423. Zugegriffen am 14.02.2021. Richardson, R., Schultz, J., & Crawford, K. (13. Februar 2019). Dirty data, bad predictions: How civil rights violations impact police data, predictive policing systems, and justice. Social science research network. https://​ssrn.​com/​abstract=​3333423. Zugegriffen am 14.02.2021.
Zurück zum Zitat Scharre, P. (2018). Army of none: Autonomous weapons and the future of war. London: W. W. Norton & Company. Scharre, P. (2018). Army of none: Autonomous weapons and the future of war. London: W. W. Norton & Company.
Zurück zum Zitat Striemer, R., & Gruhn, V. (2020). KI verändert den Blickwinkel: Aufgaben anders definieren, Prozesse anders sehen, Daten anders verstehen. In V. Gruhn & A. von Hayn (Hrsg.), KI verändert die Spielregeln (S. 42–59). München: Hanser. CrossRef Striemer, R., & Gruhn, V. (2020). KI verändert den Blickwinkel: Aufgaben anders definieren, Prozesse anders sehen, Daten anders verstehen. In V. Gruhn & A. von Hayn (Hrsg.), KI verändert die Spielregeln (S. 42–59). München: Hanser. CrossRef
Zurück zum Zitat Watzlawick, P., Beavin, J. H., & Jackson, D. D. (1967). Pragmatics of human communication: A study of international patterns, pathologies and paradoxes. New York: W.W. Norton & Co. Watzlawick, P., Beavin, J. H., & Jackson, D. D. (1967). Pragmatics of human communication: A study of international patterns, pathologies and paradoxes. New York: W.W. Norton & Co.
Zurück zum Zitat Wiener, N. (1954). The human use of human beings, cybernetics and society. [1950]. Boston: Houghton Mifflin. Wiener, N. (1954). The human use of human beings, cybernetics and society. [1950]. Boston: Houghton Mifflin.
Zurück zum Zitat Zweig, K. A., Fischer, S., & Lischka, K. (2018). Wo Maschinen irren können. Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung. In Bertelsmann Stiftung (Hrsg.), Impuls Algorithmenethik #4. https://​doi.​org/​10.​11586/​2018006. Zugegriffen am 24.10.2020. Zweig, K. A., Fischer, S., & Lischka, K. (2018). Wo Maschinen irren können. Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung. In Bertelsmann Stiftung (Hrsg.), Impuls Algorithmenethik #4. https://​doi.​org/​10.​11586/​2018006. Zugegriffen am 24.10.2020.
Metadaten
Titel
KI und Verantwortung
verfasst von
Sven Krüger
Copyright-Jahr
2021
DOI
https://doi.org/10.1007/978-3-658-34874-8_7

Premium Partner