Skip to main content

2020 | OriginalPaper | Buchkapitel

Diskriminierungen und Verzerrungen durch Künstliche Intelligenz. Entstehung und Wirkung im gesellschaftlichen Kontext

verfasst von : Paul F. Langer, Jan C. Weyerer

Erschienen in: Demokratietheorie im Zeitalter der Frühdigitalisierung

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Die Entwicklung und Anwendung künstlicher Intelligenz (KI) geht einher mit sozialen und ethischen Herausforderungen insbesondere in Form verzerrender oder diskriminierender KI-Ergebnisse. Oftmals werden gesellschaftliche Vorurteile und Verhaltensweisen gegenüber Minderheiten von KI-Technologien erlernt und entsprechend reproduziert. Dieser Beitrag widmet sich den zugrunde liegenden Wirkungsmechanismen. Dabei wird ein theoretisches Erklärungsmodell anhand gegebener Literatur abgeleitet, welches die Entstehung, Funktionsweise und Auswirkungen der Verzerrungen und Diskriminierung bei KI-Technologien darstellt.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Literatur
Zurück zum Zitat Amini, A., A. Soleimany, A., W. Schwarting, S. Bhatia, und D. Rus. (2019). Uncovering and Mitigating Algorithmic Bias through Learned Latent Structure. In Association for the Advancement of Artificial Intelligence (AAAI) (Hrsg.), Proceedings of the 2019 AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society . Amini, A., A. Soleimany, A., W. Schwarting, S. Bhatia, und D. Rus. (2019). Uncovering and Mitigating Algorithmic Bias through Learned Latent Structure. In Association for the Advancement of Artificial Intelligence (AAAI) (Hrsg.), Proceedings of the 2019 AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society .
Zurück zum Zitat Anderson, M., und S.L. Anderson. 2007. Machine ethics: Creating an ethical intelligent agent. AI magazine 28 (4): 15–26. Anderson, M., und S.L. Anderson. 2007. Machine ethics: Creating an ethical intelligent agent. AI magazine 28 (4): 15–26.
Zurück zum Zitat Arel, I., D.C. Rose, und T.P. Karnowski. 2010. Deep machine learning – A new frontier in artificial intelligence research. IEEE computational intelligence magazine 5 (4): 13–18.CrossRef Arel, I., D.C. Rose, und T.P. Karnowski. 2010. Deep machine learning – A new frontier in artificial intelligence research. IEEE computational intelligence magazine 5 (4): 13–18.CrossRef
Zurück zum Zitat Bellamy, R. K. E., Dey, K., Hind, M., Hoffman, S. C., Houde, S., Kannan, K., Lohia, P., Martino, J., Mehta, S., Mojsilovic, A., Nagar, S., Ramamurthy, K. N., Richards, J. T., Saha, D., Sattigeri, P., Singh, M., Varshney, K. R., und Zhang, Y. (2018). AI Fairness 360: An Extensible Toolkit for Detecting, Understanding, and Mitigating Unwanted Algorithmic Bias. CoRR abs/1810.01943. https://arxiv.org/abs/1810.01943. Zugegriffen: 15. Juli 2019. Bellamy, R. K. E., Dey, K., Hind, M., Hoffman, S. C., Houde, S., Kannan, K., Lohia, P., Martino, J., Mehta, S., Mojsilovic, A., Nagar, S., Ramamurthy, K. N., Richards, J. T., Saha, D., Sattigeri, P., Singh, M., Varshney, K. R., und Zhang, Y. (2018). AI Fairness 360: An Extensible Toolkit for Detecting, Understanding, and Mitigating Unwanted Algorithmic Bias. CoRR abs/1810.01943. https://​arxiv.​org/​abs/​1810.​01943. Zugegriffen: 15. Juli 2019.
Zurück zum Zitat Buolamwini, J., und T. Gebru. 2018. Gender Shades: Intersectional Accuracy Disparities inCommercial Gender Classification. Proceedings of Machine Learning Research 81: 1–15. Buolamwini, J., und T. Gebru. 2018. Gender Shades: Intersectional Accuracy Disparities inCommercial Gender Classification. Proceedings of Machine Learning Research 81: 1–15.
Zurück zum Zitat Castelvecchi, D. 2016. Can we open the black box of AI? Nature News 538 (7623): 20–23.CrossRef Castelvecchi, D. 2016. Can we open the black box of AI? Nature News 538 (7623): 20–23.CrossRef
Zurück zum Zitat Chen, D.L., T.J. Moskowitz, und K. Shue. 2016. Decision making under the gambler’s fallacy: Evidence from asylum judges, loan officers, and baseball umpires. The Quarterly Journal of Economics 131 (3): 1181–1242.CrossRef Chen, D.L., T.J. Moskowitz, und K. Shue. 2016. Decision making under the gambler’s fallacy: Evidence from asylum judges, loan officers, and baseball umpires. The Quarterly Journal of Economics 131 (3): 1181–1242.CrossRef
Zurück zum Zitat Davidson, T., Warmsley, D., Macy, M. & Weber, I. (2017). Automated hate speech detection and the problem of offensive language. Proceedings of the Eleventh International AAAI Conference on Web and Social Media (ICWSM 2017), 512–516. Davidson, T., Warmsley, D., Macy, M. & Weber, I. (2017). Automated hate speech detection and the problem of offensive language. Proceedings of the Eleventh International AAAI Conference on Web and Social Media (ICWSM 2017), 512–516.
Zurück zum Zitat Eggers, W. D., Schatsky, D. & Viechnicki, P. (2017). AI-augmented government: Using cognitive technologies to redesign public sector work. Deloitte Center for Government Insights, 1–24. Eggers, W. D., Schatsky, D. & Viechnicki, P. (2017). AI-augmented government: Using cognitive technologies to redesign public sector work. Deloitte Center for Government Insights, 1–24.
Zurück zum Zitat Ellis, E., und P. Watson. 2012. EU Anti-Discrimination Law, 2. Aufl. Oxford, UK: Oxford University Press.CrossRef Ellis, E., und P. Watson. 2012. EU Anti-Discrimination Law, 2. Aufl. Oxford, UK: Oxford University Press.CrossRef
Zurück zum Zitat Flaxman, S., S. Goel, und J.M. Rao. 2016. Filter bubbles, echo chambers, and online news consumption. Public opinion quarterly 80 (S1): 298–320.CrossRef Flaxman, S., S. Goel, und J.M. Rao. 2016. Filter bubbles, echo chambers, and online news consumption. Public opinion quarterly 80 (S1): 298–320.CrossRef
Zurück zum Zitat Garvie, C. (2016). The perpetual line-up: Unregulated police face recognition in America: Georgetown Law, Center on Privacy & Technology. Garvie, C. (2016). The perpetual line-up: Unregulated police face recognition in America: Georgetown Law, Center on Privacy & Technology.
Zurück zum Zitat Goel, N., Yaghini, M. & Faltings, B. (2018). Non-Discriminatory Machine Learning through Convex Fairness Criteria. In J. Furman, G. Marchant, H. Price & F. Rossi (Hrsg.), Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society – AIES '18 (S. 116). New York, New York, USA: ACM Press. Goel, N., Yaghini, M. & Faltings, B. (2018). Non-Discriminatory Machine Learning through Convex Fairness Criteria. In J. Furman, G. Marchant, H. Price & F. Rossi (Hrsg.), Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society – AIES '18 (S. 116). New York, New York, USA: ACM Press.
Zurück zum Zitat Gwagwa, A. & Koene, A. (2018). Minimizing algorithmic bias and discrimination in the digital economy. Working group for IEEE Standard on Algorithm Bias Considerations UNCTAD Africa e-Commerce week, 10–14 December 2018, Nairobi, Kenya. Gwagwa, A. & Koene, A. (2018). Minimizing algorithmic bias and discrimination in the digital economy. Working group for IEEE Standard on Algorithm Bias Considerations UNCTAD Africa e-Commerce week, 10–14 December 2018, Nairobi, Kenya.
Zurück zum Zitat Harringer, C. 2018. „Good Bot, Bad Bot “? Information-Wissenschaft & Praxis 69 (5–6): 257–264.CrossRef Harringer, C. 2018. „Good Bot, Bad Bot “? Information-Wissenschaft & Praxis 69 (5–6): 257–264.CrossRef
Zurück zum Zitat Hofstetter, Y. (2018). Neue Welt. Macht. Neue Menschen. Wie die Digitalisierung das Menschenbild verändert. In G. Küenzlen, S. Haring-Mosbacher & P. Diehl (Hrsg.), Der Neue Mensch (Schriftenreihe/Bundeszentrale für Politische Bildung, Band 10247, S. 135–150). Bonn: bpb Bundeszentrale für Politische Bildung. Hofstetter, Y. (2018). Neue Welt. Macht. Neue Menschen. Wie die Digitalisierung das Menschenbild verändert. In G. Küenzlen, S. Haring-Mosbacher & P. Diehl (Hrsg.), Der Neue Mensch (Schriftenreihe/Bundeszentrale für Politische Bildung, Band 10247, S. 135–150). Bonn: bpb Bundeszentrale für Politische Bildung.
Zurück zum Zitat Hupperich, T., Tatang, D., Wilkop, N. & Holz, T. (2018). An empirical study on online price differentiation. In Z. Zhao & G.-J. Ahn (Hrsg.), CODASPY'18. Proceedings of the Eighth ACM Conference on Data and Application Security and Privacy : March 19–21, 2018, Tempe, AZ, USA (S. 76–83). New York, NY, USA: ACM Association for Computing Machinery. Hupperich, T., Tatang, D., Wilkop, N. & Holz, T. (2018). An empirical study on online price differentiation. In Z. Zhao & G.-J. Ahn (Hrsg.), CODASPY'18. Proceedings of the Eighth ACM Conference on Data and Application Security and Privacy : March 19–21, 2018, Tempe, AZ, USA (S. 76–83). New York, NY, USA: ACM Association for Computing Machinery.
Zurück zum Zitat Klare, B.F., M.J. Burge, J.C. Klontz, R.W.V. Bruegge, und A.K. Jain. 2012. Face recognition performance: Role of demographic information. IEEE Transactions on Information Forensics and Security 7 (6): 1789–1801.CrossRef Klare, B.F., M.J. Burge, J.C. Klontz, R.W.V. Bruegge, und A.K. Jain. 2012. Face recognition performance: Role of demographic information. IEEE Transactions on Information Forensics and Security 7 (6): 1789–1801.CrossRef
Zurück zum Zitat Koene, A., Clifton, C., Hatada, Y., Webb, H. & Richardson, R. (2019). A Governance Framework for Algorithmic Accountability and Transparency (Scientific Foresight Unit, Hrsg.) (PE 624.262). Brussels: Directorate-General for Parliamentary Research Services (EPRS) of the Secretariat of the European Parliament. Koene, A., Clifton, C., Hatada, Y., Webb, H. & Richardson, R. (2019). A Governance Framework for Algorithmic Accountability and Transparency (Scientific Foresight Unit, Hrsg.) (PE 624.262). Brussels: Directorate-General for Parliamentary Research Services (EPRS) of the Secretariat of the European Parliament.
Zurück zum Zitat Krüger, J. & Lischka, K. (2018). Damit Maschinen den Menschen dienen. Lösungsansätze, um algorithmische Entscheidungen in den Dienst der Gesellschaft zu stellen. Impuls Algorithmenethik #6, Gütersloh. Krüger, J. & Lischka, K. (2018). Damit Maschinen den Menschen dienen. Lösungsansätze, um algorithmische Entscheidungen in den Dienst der Gesellschaft zu stellen. Impuls Algorithmenethik #6, Gütersloh.
Zurück zum Zitat Lin, P. (2012). Introduction to Robot Ethics. In P. Lin, K. Abney & G. A. Bekey (Hrsg.), Robot Ethics: The Ethical and Social Implications of Robotics. Cambridge, MA: MIT Press. Lin, P. (2012). Introduction to Robot Ethics. In P. Lin, K. Abney & G. A. Bekey (Hrsg.), Robot Ethics: The Ethical and Social Implications of Robotics. Cambridge, MA: MIT Press.
Zurück zum Zitat Lloyd, K. (2018). Bias Amplification in Artificial Intelligence Systems. AAAI FSS-18: Artificial Intelligence in Government and Public Sector, Arlington, Virginia, USA. Lloyd, K. (2018). Bias Amplification in Artificial Intelligence Systems. AAAI FSS-18: Artificial Intelligence in Government and Public Sector, Arlington, Virginia, USA.
Zurück zum Zitat Martini. . 2017. Algorithmen als Herausforderung für die Rechtsordnung. JuristenZeitung 72 (21): 1017–1025.CrossRef Martini. . 2017. Algorithmen als Herausforderung für die Rechtsordnung. JuristenZeitung 72 (21): 1017–1025.CrossRef
Zurück zum Zitat Martini, M. (2019). Blackbox Algorithmus–Grundfragen einer Regulierung Künstlicher Intelligenz: Springer-Verlag. Martini, M. (2019). Blackbox Algorithmus–Grundfragen einer Regulierung Künstlicher Intelligenz: Springer-Verlag.
Zurück zum Zitat Munger, K. 2017. Tweetment effects on the tweeted: Experimentally reducing racist harassment. Political Behavior 39 (3): 629–649.CrossRef Munger, K. 2017. Tweetment effects on the tweeted: Experimentally reducing racist harassment. Political Behavior 39 (3): 629–649.CrossRef
Zurück zum Zitat Neff, G., und P. Nagy. 2016. Automation, algorithms, and politics| talking to Bots: Symbiotic agency and the case of Tay. International Journal of Communication 10: 4915–4931. Neff, G., und P. Nagy. 2016. Automation, algorithms, and politics| talking to Bots: Symbiotic agency and the case of Tay. International Journal of Communication 10: 4915–4931.
Zurück zum Zitat Novick, P.,. Schrier, K. & Woolley, S. (Anti-Defamation League, Hrsg.). (2018). Computational Propaganda, Jewish-Americans and the 2018 Midterms. The Amplification of Anti-Semitic Harassment Online. A report from the Center on Technology and Society, Anti-Defamation League. https://www.adl.org/media/12028/download. Zugegriffen: 22/11/19. Novick, P.,. Schrier, K. & Woolley, S. (Anti-Defamation League, Hrsg.). (2018). Computational Propaganda, Jewish-Americans and the 2018 Midterms. The Amplification of Anti-Semitic Harassment Online. A report from the Center on Technology and Society, Anti-Defamation League. https://​www.​adl.​org/​media/​12028/​download. Zugegriffen: 22/11/19.
Zurück zum Zitat Obama White House. (2015). Big Data and Differential Pricing. https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/docs/Big_Data_Report_Nonembargo_v2.pdf. Zugegriffen: 29.11.19. Obama White House. (2015). Big Data and Differential Pricing. https://​obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/docs/Big_Data_Report_Nonembargo_v2.pdf. Zugegriffen: 29.11.19.
Zurück zum Zitat Porter, T. M. (1996). Trust in numbers: The pursuit of objectivity in science and public life: Princeton University Press. Porter, T. M. (1996). Trust in numbers: The pursuit of objectivity in science and public life: Princeton University Press.
Zurück zum Zitat Raji, I. D. & Buolamwini, J. (2019). Actionable auditing: Investigating the impact of publicly naming biased performance results of commercial ai products. In Association for the Advancement of Artificial Intelligence (AAAI) (Hrsg.), Proceedings of the 2019 AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society (Bd. 1, S. 1–7). Raji, I. D. & Buolamwini, J. (2019). Actionable auditing: Investigating the impact of publicly naming biased performance results of commercial ai products. In Association for the Advancement of Artificial Intelligence (AAAI) (Hrsg.), Proceedings of the 2019 AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society (Bd. 1, S. 1–7).
Zurück zum Zitat Savage, S. L. (2012). The flaw of averages: Why we underestimate risk in the face of uncertainty: John Wiley & Sons. Savage, S. L. (2012). The flaw of averages: Why we underestimate risk in the face of uncertainty: John Wiley & Sons.
Zurück zum Zitat Schwarz, N., H. Bless, F. Strack, G. Klumpp, H. Rittenauer-Schatka, und A. Simons. 1991. Ease of retrieval as information: another look at the availability heuristic. Journal of Personality and Social psychology 61 (2): 195.CrossRef Schwarz, N., H. Bless, F. Strack, G. Klumpp, H. Rittenauer-Schatka, und A. Simons. 1991. Ease of retrieval as information: another look at the availability heuristic. Journal of Personality and Social psychology 61 (2): 195.CrossRef
Zurück zum Zitat Skirpan, M. & Yeh, T. (2017). Designing a moral compass for the future of computer vision using speculative analysis. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) 2017 (S. 64–73). Skirpan, M. & Yeh, T. (2017). Designing a moral compass for the future of computer vision using speculative analysis. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) 2017 (S. 64–73).
Zurück zum Zitat Speicher, T., M. Ali, G. Venkatadri, F.N. Ribeiro, G. Arvanitakis, F. Benevenuto, K.P. Gummadi, P. Loiseau, und A. Mislove. 2018. Potential for Discrimination in Online Targeted Advertising. Proceedings of Machine Learning Research 81: 1–15. Speicher, T., M. Ali, G. Venkatadri, F.N. Ribeiro, G. Arvanitakis, F. Benevenuto, K.P. Gummadi, P. Loiseau, und A. Mislove. 2018. Potential for Discrimination in Online Targeted Advertising. Proceedings of Machine Learning Research 81: 1–15.
Zurück zum Zitat Speicher, T., Heidari, H., Grgic-Hlaca, N., Gummadi, K. P., Singla, A., Weller, A. & Zafar, M. B. (2018). A Unified Approach to Quantifying Algorithmic Unfairness. In Y. Guo & F. Farooq (Hrsg.), Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining – KDD '18 (S. 2239–2248). New York, New York, USA: ACM Press. Speicher, T., Heidari, H., Grgic-Hlaca, N., Gummadi, K. P., Singla, A., Weller, A. & Zafar, M. B. (2018). A Unified Approach to Quantifying Algorithmic Unfairness. In Y. Guo & F. Farooq (Hrsg.), Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining – KDD '18 (S. 2239–2248). New York, New York, USA: ACM Press.
Zurück zum Zitat Weiss, G. 1999. Multiagent systems: a modern approach to distributed artificial intelligence. Cambridge, MA: MIT Press. Weiss, G. 1999. Multiagent systems: a modern approach to distributed artificial intelligence. Cambridge, MA: MIT Press.
Zurück zum Zitat Weyerer, J. C. & Langer, P. F. (2019). Garbage In, Garbage Out: The Vicious Cycle of AI-Based Discrimination in the Public Sector. In Y.-C. Chen, F. Salem & A. Zuiderwijk (Hrsg.), Proceeding dg.o 2019 20th Annual International Conference on Digital Government Research (S. 509–511). New York, NY, USA. Weyerer, J. C. & Langer, P. F. (2019). Garbage In, Garbage Out: The Vicious Cycle of AI-Based Discrimination in the Public Sector. In Y.-C. Chen, F. Salem & A. Zuiderwijk (Hrsg.), Proceeding dg.o 2019 20th Annual International Conference on Digital Government Research (S. 509–511). New York, NY, USA.
Zurück zum Zitat Weyerer, J. C. & Langer, P. F. (2020). Bias and Discrimination in Artificial Intelligence: Emergence and Impact in E-Business. In R. Luppicini (Hrsg.), Handbook of Research on Interdisciplinary Approaches to Digital Transformation and Innovation. forthcoming. Hershey, PA: IGI Global. Weyerer, J. C. & Langer, P. F. (2020). Bias and Discrimination in Artificial Intelligence: Emergence and Impact in E-Business. In R. Luppicini (Hrsg.), Handbook of Research on Interdisciplinary Approaches to Digital Transformation and Innovation. forthcoming. Hershey, PA: IGI Global.
Zurück zum Zitat Yong, H. (2018). Das Internet ist nicht genderneutral. Über Geschlechterethik in Netzöffentlichkeit. In P. Otto & E. Gräf (Hrsg.), 3TH1CS. Die Ethik der digitalen Zeit (Schriftenreihe/Bundeszentrale für Politische Bildung, Band 10181, Sonderausgabe für die Bundeszentrale für Politische Bildung, S. 198–208). Bonn: Bundeszentrale für Politische Bildung. Yong, H. (2018). Das Internet ist nicht genderneutral. Über Geschlechterethik in Netzöffentlichkeit. In P. Otto & E. Gräf (Hrsg.), 3TH1CS. Die Ethik der digitalen Zeit (Schriftenreihe/Bundeszentrale für Politische Bildung, Band 10181, Sonderausgabe für die Bundeszentrale für Politische Bildung, S. 198–208). Bonn: Bundeszentrale für Politische Bildung.
Zurück zum Zitat Zhang, L., Wu, Y. & Wu, X. (2018). Achieving Non-Discrimination in Prediction. In J. S. Rosenschein & J. Lang (Hrsg.), Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence (S. 3097–3103). Zhang, L., Wu, Y. & Wu, X. (2018). Achieving Non-Discrimination in Prediction. In J. S. Rosenschein & J. Lang (Hrsg.), Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence (S. 3097–3103).
Zurück zum Zitat Zhao, J., Wang, T., Yatskar, M., Ordonez, V. & Chang, K.-W. (2017). Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints. In M. Palmer, R. Hwa & S. Riedel (Hrsg.), Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (S. 2979–2989). Stroudsburg, PA: Association for Computational Linguistics. Zhao, J., Wang, T., Yatskar, M., Ordonez, V. & Chang, K.-W. (2017). Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints. In M. Palmer, R. Hwa & S. Riedel (Hrsg.), Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (S. 2979–2989). Stroudsburg, PA: Association for Computational Linguistics.
Metadaten
Titel
Diskriminierungen und Verzerrungen durch Künstliche Intelligenz. Entstehung und Wirkung im gesellschaftlichen Kontext
verfasst von
Paul F. Langer
Jan C. Weyerer
Copyright-Jahr
2020
DOI
https://doi.org/10.1007/978-3-658-30997-8_11