Zum Inhalt

Vertrauen in Künstliche Intelligenz

Eine multi-perspektivische Betrachtung

  • 2024
  • Buch

Über dieses Buch

Der vorliegende Band markiert einen initialen Schritt zur umfassenden Erörterung des Themenfelds ‚Vertrauen in KI‘ aus vielfältigen Blickwinkeln. Dabei wird eine Herangehensweise sowohl aus wirtschafts- und sozialwissenschaftlicher als auch aus informationstechnischer Perspektive gewählt, die zudem interdisziplinäre Aspekte einbezieht. Insgesamt präsentiert der Band fünfzehn Beiträge von 25 renommierten Autorinnen und Autoren, die ihre Expertise aus vierzehn unterschiedlichen Einrichtungen einbringen. Ziel dieser Debatten ist es, Lernende, Lehrende, Forschende sowie Entscheidungsträgerinnen und -träger aus Politik und Wirtschaft dazu zu befähigen, auf Basis von Fakten eine fundierte Meinung zu bilden. Auf dieser Grundlage sollen sie in der Lage sein, gut durchdachte persönliche Entscheidungen im Umgang mit KI zu treffen.

Inhaltsverzeichnis

  1. Frontmatter

  2. Buchvorspann

    1. Frontmatter

    2. Kapitel 1. Einleitung

      Sabrina Schork, Peter Gordon Rötzel
      Der Fachbeitrag behandelt die historische Entwicklung der Künstlichen Intelligenz, beginnend mit den frühen Arbeiten von Alan Turing und der Einführung des Begriffs 'KI' durch John McCarthy im Jahr 1955. Es wird die Bedeutung von Vertrauen in KI aus verschiedenen Perspektiven beleuchtet, einschließlich der wissenschaftlichen, wirtschaftlichen, sozialen und kulturellen Aspekte. Die Autoren diskutieren, wie Vertrauen in KI aufgebaut werden kann und welche Herausforderungen und Chancen damit verbunden sind. Besondere Aufmerksamkeit wird der interdisziplinären Zusammenarbeit gewidmet, die notwendig ist, um die komplexen Fragen rund um KI und Vertrauen zu adressieren. Der Beitrag bietet eine umfassende Analyse der aktuellen Forschung und Praxis und zeigt auf, wie Vertrauen in KI durch Transparenz, Regulierung und ethische Standards gefördert werden kann.
  3. Wirtschaftswissenschaftliche Perspektive

    1. Frontmatter

    2. Kapitel 2. Künstliche Intelligenz (KI) – unser bester Freund?

      Wie Menschen auf KI-Entscheidungsempfehlungen reagieren Peter Gordon Rötzel
      Das Kapitel beleuchtet die zunehmende Integration von Künstlicher Intelligenz (KI) in den Arbeitsalltag und die Frage, ob Menschen KI als Freunde betrachten können. Es untersucht die Mensch-KI-Interaktion (MKI) und die Rolle des Vertrauens dabei. Kognitive, emotionale und soziale Faktoren werden analysiert, um die Entstehung und Aufrechterhaltung von Vertrauen in KI-Systemen zu verstehen. Herausforderungen wie Voreingenommenheit gegenüber der Automatisierung und die Tendenz zur Algorithmusvermeidung werden diskutiert. Das Kapitel betont die Bedeutung von Transparenz, Erklärbarkeit und Anpassungsfähigkeit von KI-Systemen. Es schließt mit einem Ausblick auf aktuelle Herausforderungen und Strategien zur Förderung des Vertrauens in KI-Systeme.
    3. Kapitel 3. Kann Vertrauen eine Beziehung zwischen Menschen und Maschinen sein?

      Institutionenvertrauen und CBMs als ein Lösungsansatz Georg Rainer Hofmann
      Der Fachbeitrag untersucht die Möglichkeit von Vertrauen in Beziehungen zwischen Menschen und Maschinen, insbesondere in Bezug auf IT-Systeme. Es wird erörtert, wie Institutionenvertrauen, speziell in Form von Markenvertrauen, in die Anwendungsszenarien von IT-Systemen integriert werden kann. Der Beitrag hebt hervor, dass persönliches Vertrauen in eine Maschine nicht möglich ist, da Maschinen keine gegenseitige persönliche Beziehung eingehen können. Stattdessen wird der Fokus auf Institutionenvertrauen und vertrauensbildende Maßnahmen (CBMs) gelegt. Es werden verschiedene Arten von Vertrauen und deren Unterschiede diskutiert, wie beispielsweise zwischen persönlichem Vertrauen und Zuverlässigkeit als technische Eigenschaft. Der Beitrag identifiziert auch die Bedeutung von Urvertrauen und dessen Übertragung auf die Interaktion mit IT-Systemen. Es werden konkrete Maßnahmen und Kriterien zur Gestaltung von Markenvertrauen und Vertrauensbildung in IT-Anwendungen vorgestellt, die für die Akzeptanz und das Vertrauen in IT-Systeme von zentraler Bedeutung sind. Ein weiterer Schwerpunkt liegt auf der Notwendigkeit von vertrauensbildenden Maßnahmen in der digitalen Welt und deren Rolle bei der Vermeidung von Missbrauch und Fehlfunktionen. Der Beitrag schließt mit einer Diskussion über offene Fragen und zukünftige Forschungsrichtungen, insbesondere die Notwendigkeit einer menschlichen Intervention in automatisierten Systemen.
    4. Kapitel 4. Vertrauen als Motor des KI-Wertschöpfungszyklus

      Implikationen aus systemtheoretischer Sicht Daniel Glinz
      Der Beitrag untersucht das Vertrauen als zentralen Motor des KI-Wertschöpfungszyklus aus systemtheoretischer Perspektive. Es wird beleuchtet, wie Vertrauen den Zugang zu wertvollen Daten ermöglicht und welche ethischen und verantwortungsvollen Aspekte dabei eine Rolle spielen. Die rasante Entwicklung der KI und die damit verbundenen Herausforderungen, wie die Sicherung der Privatsphäre und die ethische Governance, werden detailliert analysiert. Besondere Aufmerksamkeit wird den emergenten Systemeigenschaften gewidmet, die das Vertrauen in KI-Systeme beeinflussen. Praktische Handlungsempfehlungen und Design-Prinzipien werden abgeleitet, um das Vertrauen in KI zu stärken und die Akzeptanz der Technologie zu fördern.
  4. Sozialwissenschaftliche Perspektive

    1. Frontmatter

    2. Kapitel 5. Meine Kollegin, die KI – Wie die Nutzung von Künstlicher Intelligenz das schulische Lehren und Lernen verändert

      Katrin Böhme, Janne Mesenhöller
      Der Beitrag beleuchtet die rasante Entwicklung von Künstlicher Intelligenz (KI) und deren Einfluss auf das Bildungswesen. Es wird untersucht, wie KI-basierte Systeme wie ChatGPT das Lernen und Lehren verändern können. Die Studie basiert auf einer empirischen Untersuchung mit 141 Lehrkräften und zeigt sowohl die positiven Potenziale als auch die Bedenken und Herausforderungen auf, die mit der Nutzung von KI im schulischen Kontext verbunden sind. Dabei werden ethische, rechtliche und soziale Implikationen berücksichtigt und Lösungsansätze für eine nachhaltige Integration von KI in den Schulalltag vorgeschlagen.
    3. Kapitel 6. Vertrauensvolle KI – eine Diskussion aus psychologischer und pädagogischer Sicht

      Ines Langemeyer
      Der Beitrag untersucht die sozialen und ethischen Implikationen von Künstlicher Intelligenz (KI) aus psychologischer und pädagogischer Perspektive. Es wird diskutiert, wie KI als quasi-sozialer Akteur wahrgenommen wird und welche Verantwortungsbereiche und Grenzen dabei zu beachten sind. Besonders interessant ist die Analyse von KI-Systemen in beruflichen und professionellen Beziehungen, wo ein Gefälle zwischen Expertisen und Laientum besteht. Der Text betont die Notwendigkeit, KI nicht nur als Ersatz für menschliche Akteure zu sehen, sondern ihre spezifischen Eigenschaften und Grenzen zu verstehen. Es wird auch die Rolle von KI als neue Wissensinstanz und die Veränderungen in Verwissenschaftlichungsprozessen beleuchtet. Der Beitrag schließt mit der Frage, wie die Entwicklung technischer Intelligenz gesellschaftlich institutionalisiert werden kann und welche Spielräume für eine Gestaltung des gemeinsamen Lebens dabei entstehen.
    4. Kapitel 7. Die Ethik der KI in Universitäten: Im Spannungsfeld zwischen Qualität, Identität und Privatsphäre

      Sandra Leaton Gray
      Das Kapitel beleuchtet die ethischen Implikationen der Einführung von Künstlicher Intelligenz (KI) in Universitäten, insbesondere im Hinblick auf Qualität, Identität und Privatsphäre. Es untersucht die Geschichte der KI in der Bildung und die aktuellen Anwendungen, wie prädiktive Analyse, Deep Learning und neuronale Netze. Ein zentrales Thema ist die Analyse der Datenschutzbedenken und die Auswirkungen auf die wissenschaftliche Praxis. Darüber hinaus werden die Herausforderungen und Potenziale der KI-gestützten Forschung und Lehre diskutiert, einschließlich der ethischen Überlegungen und der Notwendigkeit einer transparenten Datennutzung. Das Kapitel schließt mit Überlegungen zur Neugestaltung der Privatsphäre und Identität im universitären Kontext durch den Einsatz von KI.
  5. Computerwissenschaftliche Perspektive

    1. Frontmatter

    2. Kapitel 8. Bayes’sche Netze als Methode zur Implementierung transparenter, erklärbarer und vertrauenswürdiger Künstlicher Intelligenz

      Anders L. Madsen, Galia Weidl
      Das Kapitel behandelt die Verwendung von Bayes’schen Netzen als Methode zur Implementierung transparenter und erklärbarer Künstlicher Intelligenz. Es wird die Einführung von Bayes’schen Netzen als Modell zur Darstellung von Unsicherheiten in verfügbarem Wissen und Daten erläutert. Ein laufendes Beispiel zur Modellierung von Fahrerermüdung zeigt, wie Bayes’sche Netze zur Erklärung und Transparenz in KI-Systemen beitragen können. Die Eigenschaften von Bayes’schen Netzen, wie die Darstellung kausaler Beziehungen und die Fähigkeit zur Propagation von Evidenzen, werden detailliert beschrieben. Der Text geht auch auf die Erklärbarkeit und Vertrauenswürdigkeit von KI-Systemen ein und diskutiert ethische Leitlinien für vertrauenswürdige KI. Ein Fallbeispiel aus dem Bereich des automatisierten Fahrens veranschaulicht die praktische Anwendung von Bayes’schen Netzen in komplexen Systemen. Insgesamt bietet der Beitrag einen umfassenden Überblick über die Vorteile und Anwendungsmöglichkeiten von Bayes’schen Netzen in der KI.
    3. 9. Fairness in KI-Systemen

      • Open Access
      Janine Strotherm, Alissa Müller, Barbara Hammer, Benjamin Paaßen
      Das Kapitel behandelt die zunehmende Nutzung von KI-Systemen in kritischen Entscheidungsprozessen und die Bedeutung von Fairness in diesen Systemen. Es wird erklärt, wie KI-Systeme unbeabsichtigt unfair sein können, trotz der Annahme, dass sie keine Vorurteile haben. Ein zentrales Beispiel ist ein KI-System zur Bewertung von Bewerbungen, das auf historisch voreingenommenen Daten basiert und dadurch bestimmte Gruppen benachteiligt. Das Kapitel stellt verschiedene Fairness-Definitionen vor, darunter Gruppenfairness, individuelle Fairness, kausale Fairness und dynamische Fairness. Jede Definition hat unterschiedliche Ansätze zur Bewertung der Fairness von KI-Systemen. Es werden auch Strategien zur Erreichung von Fairness in KI-Systemen diskutiert, wie Audit-Werkzeuge, Vorverarbeitung der Trainingsdaten und Nachbearbeitung von Modellen. Praktische Fallbeispiele, wie das Amazon-Bewerbungs-System und die Software COMPAS, veranschaulichen die Problematik der Unfairness in KI-Systemen. Das Kapitel schließt mit einer Betrachtung der europäischen Regulierungen zur Fairness in KI-Systemen und der Bedeutung der Einbettung in den spezifischen Anwendungskontext.
      PDF-Version jetzt herunterladen
    4. Kapitel 10. Kann man ChatGPT aus der Nutzerinnen- und Nutzerperspektive in der physikalischen Forschung und Lehre trauen?

      Franz-Josef Schmitt
      Der Beitrag befasst sich mit der Frage, ob ChatGPT als vertrauenswürdige KI in der physikalischen Forschung und Lehre eingesetzt werden kann. Es werden verschiedene Definitionen von vertrauenswürdiger KI diskutiert, darunter die der Vereinten Nationen und der Europäischen Union. Die Einhaltung der Leitlinien zur Sicherung guter wissenschaftlicher Praxis der Deutschen Forschungsgemeinschaft (DFG) wird als grundlegende Voraussetzung für Vertrauen in KI betrachtet. Es wird untersucht, ob ChatGPT diese Kriterien erfüllt und wie es in der Praxis eingesetzt werden kann. Dabei wird auch die Rolle von Transparenz, Erklärbarkeit und ethischen Standards beleuchtet. Der Beitrag schließt mit Vorschlägen zur Nutzung von ChatGPT in der Lehre und Forschung.
    5. Kapitel 11. Vertrauensbildende Maßnahmen am Beispiel von KI-Anwendungen in der Hochschulbildung

      • Open Access
      Sabrina Schork
      Dieser Fachbeitrag beleuchtet die vielfältigen Anwendungsbereiche von KI in der Hochschulbildung, wie z.B. die Profilerstellung, Leistungsbeurteilung und Individualisierung des Lernens. Es wird analysiert, wie KI-Anwendungen das Lernen und Lehren optimieren und welche Maßnahmen ergriffen werden müssen, um berechtigtes Vertrauen in diese Technologien zu schaffen. Die Autoren untersuchen institutionelle, software- und hardwareseitige Maßnahmen sowie die Rolle von Transparenz und Kommunikation beim Aufbau von Vertrauen. Besondere Aufmerksamkeit wird den kognitiven und emotionalen Faktoren geschenkt, die das Vertrauen in KI-Systeme beeinflussen. Der Beitrag bietet praktische Handlungsempfehlungen für Hochschulen und zeigt auf, wie KI-Anwendungen nachhaltig in den Bildungsprozess integriert werden können.
      PDF-Version jetzt herunterladen
  6. Kulturwissenschaftliche Perspektive

    1. Frontmatter

    2. Kapitel 12. Vertrauenswürdige KI – eine paradoxale Angelegenheit

      Stefan E. Slembrouck
      Das Kapitel untersucht die paradoxe Natur des Vertrauens in Künstliche Intelligenz (KI) und die Herausforderungen, sie als vertrauenswürdig zu gestalten. Es diskutiert, ob KI generell vertrauenswürdig ist und wie Vertrauen in Technik entsteht. Die philosophische und soziologische Perspektive wird genutzt, um die Unterschiede zwischen Vertrauen und Zuverlässigkeit zu beleuchten und die Rolle von Vertrauen in zwischenmenschlichen und technischen Beziehungen zu analysieren. Besondere Aufmerksamkeit wird der Frage gewidmet, ob KI so designet werden kann, dass sie grundsätzlich vertrauenswürdig ist, und welche ethischen Abwägungen dabei eine Rolle spielen. Das Kapitel schließt mit der Betrachtung der gesamtgesellschaftlichen Aufgabe, Vertrauen in KI zu fördern, und der Notwendigkeit einer kritischen Öffentlichkeit und funktionierenden Demokratie, um eine vertrauenswürdige KI zu ermöglichen.
    3. Kapitel 13. Vertrauen in KI – kulturwissenschaftlich mediale Perspektiven

      Derya Gür-Şeker
      Der Beitrag untersucht das Vertrauen in Künstliche Intelligenz (KI) aus kulturwissenschaftlicher und medienanalytischer Perspektive. Seit der Veröffentlichung von ChatGPT im November 2022 hat die mediale Sichtbarkeit von KI-Anwendungen weltweit zugenommen, was sowohl Chancen als auch Vertrauensfragen in verschiedenen gesellschaftlichen Bereichen aufwirft. Der Fokus liegt auf der Analyse medialer Texte, um Muster und Regelhaftigkeiten im Diskurs über Vertrauen in KI zu erschließen. Dabei werden sechs relevante Bereiche der Kulturwissenschaft identifiziert und deren Bedeutung für das Verständnis von Vertrauen in KI untersucht. Die Analyse zeigt, wie Vertrauen in KI durch Transparenz, Nachvollziehbarkeit und ethische Rahmenbedingungen gestärkt werden kann. Historische und gegenwärtige gesellschaftliche Entwicklungen werden berücksichtigt, um die kulturellen und historischen Dimensionen des Umgangs mit KI zu beleuchten. Abschließend werden die wichtigsten Erkenntnisse zusammengefasst und deren Implikationen für verschiedene gesellschaftliche Bereiche diskutiert.
  7. Interdisziplinäre Perspektive

    1. Frontmatter

    2. Kapitel 14. Der Mensch im Mittelpunkt: Einblick in die Gestaltung Menschenzentrierter Künstlicher Intelligenz

      Katharina Weitz
      Das Kapitel 'Der Mensch im Mittelpunkt: Einblick in die Gestaltung Menschenzentrierter Künstlicher Intelligenz' untersucht die Bedeutung der Menschzentrierten KI, die darauf abzielt, die Interaktion zwischen Mensch und KI zu verbessern. Es definiert Begriffe wie Menschzentrierte KI und Erklärbare KI, und betrachtet historische Entwicklungen und aktuelle Herausforderungen. Besonders interessant sind die exemplarischen Studien aus den Bereichen Bildung, Industrie und Medizin, die zeigen, wie Erklärbare KI das Vertrauen und die mentalen Modelle der Nutzer und Nutzerinnen beeinflusst. Das Kapitel hebt die Notwendigkeit interdisziplinärer Forschung und Zusammenarbeit hervor, um effiziente und verantwortungsvolle KI-Systeme zu entwickeln.
    3. Kapitel 15. Gamechanger KI im Sport und der Trainingswissenschaft – Können wir der Technologie heute schon vertrauen?

      Michael Fröhlich, Carlo Dindorf, Andrea Pieter, Eva Bartaguiz, Wolfgang Kemmler
      Das Kapitel beleuchtet die Entwicklungen und Potenziale von Künstlicher Intelligenz im Sport und der Trainingswissenschaft. Es wird die historische Genese und die zentralen Gegenstandsbereiche der Trainingswissenschaft erläutert und die Vertrauenswürdigkeit von KI-Anwendungen kritisch hinterfragt. Besonders hervorgehoben werden die Anwendungsfelder von KI in der Leistungsdiagnostik, Trainingsoptimierung und Verletzungsprävention. Zudem werden Herausforderungen und offene Forschungsfelder diskutiert, die die zukünftige Integration von KI in die Trainingswissenschaft beeinflussen werden.
    4. Kapitel 16. Künstliche Intelligenz als vertrauenswürdiges Mentoring-System in der Erwachsenenbildung: Hürden, Fragen, Strategien

      Johannes Schrumpf
      Der Beitrag beleuchtet die Nutzung von Künstlicher Intelligenz (KI) als vertrauenswürdiges Mentoring-System in der Erwachsenenbildung. Es wird untersucht, wie KI-gestützte Systeme Studierende dabei unterstützen können, ein selbstbestimmtes Lernparadigma zu entwickeln. Dabei werden technologische Herausforderungen wie die Auswahl und das Training von KI-Algorithmen, strukturelle Hürden wie Datenschutzrichtlinien und die Integration in bestehende Bildungssysteme sowie nutzerbezogene Herausforderungen wie die Akzeptanz und das Vertrauen der Studierenden in die Systeme analysiert. Der Beitrag stellt Strategien vor, um diese Herausforderungen zu bewältigen und das Vertrauen in KI-gestützte Mentoring-Systeme zu stärken. Dazu gehören technische Strategien wie die sorgfältige Auswahl und Implementierung von Algorithmen, strukturelle Strategien wie die Entwicklung einer strategischen Position für die Integration von KI in Universitäten und nutzerbezogene Strategien wie die Bildung und Aufklärung der Studierenden über KI-Systeme. Der Beitrag schließt mit offenen Fragen und Perspektiven für zukünftige Forschung, um die Integration von KI in die Erwachsenenbildung weiter voranzutreiben.
  8. 17. Erratum zu: Vertrauen in Künstliche Intelligenz

    Sabrina Schork
    Das Kapitel untersucht die essenziellen Aspekte von Fairness in KI-Systemen und vertrauensbildenden Maßnahmen in der Hochschulbildung. Es wird aufgezeigt, wie Fairness in KI-Systemen gewährleistet werden kann, um Diskriminierung zu vermeiden und Vertrauen bei den Nutzern zu schaffen. Dabei werden sowohl theoretische Grundlagen als auch praktische Anwendungsbeispiele diskutiert. Ein weiterer Schwerpunkt liegt auf der Implementierung von vertrauensbildenden Maßnahmen in der Hochschulbildung, um die Akzeptanz und das Vertrauen in KI-Anwendungen zu erhöhen. Die Autoren beleuchten die Herausforderungen und Lösungsansätze, die sich aus der Integration von KI in Bildungsprozesse ergeben. Zudem wird die Bedeutung von Open Access und die rechtlichen Rahmenbedingungen für die Nutzung und Verbreitung von KI-Inhalten thematisiert. Der Beitrag bietet somit wertvolle Einblicke für Fachleute, die sich mit der ethischen und rechtlichen Dimension von KI auseinandersetzen.
Titel
Vertrauen in Künstliche Intelligenz
Herausgegeben von
Sabrina Schork
Copyright-Jahr
2024
Electronic ISBN
978-3-658-43816-6
Print ISBN
978-3-658-43815-9
DOI
https://doi.org/10.1007/978-3-658-43816-6

Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.

    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Deutsche Telekom MMS GmbH/© Vendosoft, Noriis Network AG/© Noriis Network AG, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data, Videocast 1: Standbild/© Springer Fachmedien Wiesbaden, IT-Director und IT-Mittelstand: Ihre Webinar-Matineen /© da-kuk / Getty Images / iStock