Skip to main content

2024 | Buch

Vertrauen in Künstliche Intelligenz

Eine multi-perspektivische Betrachtung

insite
SUCHEN

Über dieses Buch

Der vorliegende Band markiert einen initialen Schritt zur umfassenden Erörterung des Themenfelds ‚Vertrauen in KI‘ aus vielfältigen Blickwinkeln. Dabei wird eine Herangehensweise sowohl aus wirtschafts- und sozialwissenschaftlicher als auch aus informationstechnischer Perspektive gewählt, die zudem interdisziplinäre Aspekte einbezieht. Insgesamt präsentiert der Band fünfzehn Beiträge von 25 renommierten Autorinnen und Autoren, die ihre Expertise aus vierzehn unterschiedlichen Einrichtungen einbringen. Ziel dieser Debatten ist es, Lernende, Lehrende, Forschende sowie Entscheidungsträgerinnen und -träger aus Politik und Wirtschaft dazu zu befähigen, auf Basis von Fakten eine fundierte Meinung zu bilden. Auf dieser Grundlage sollen sie in der Lage sein, gut durchdachte persönliche Entscheidungen im Umgang mit KI zu treffen.

Inhaltsverzeichnis

Frontmatter

Buchvorspann

Frontmatter
Kapitel 1. Einleitung
Zusammenfassung
Das vorliegende Buch ‚Vertrauen in Künstliche Intelligenz – eine multi-perspektivische Betrachtung‘ wurde von der Forschungsprofessorin Dr. Sabrina Schork an der Technischen Hochschule Aschaffenburg initiiert. Zweiundzwanzig Expertinnen und Experten geben veränderungsmotivierten Menschen Handlungsempfehlungen und Praxisbeispiele an die Hand, wie sie KI-Systeme, die Mensch-Maschine-Beziehung und das institutionelle Umfeld aktiv gestalten können. Verschiedene experimentelle Studien zeigen enorme Produktivitätsgewinne und Leistungsschübe durch künstliche Intelligenz (KI) bei Menschen und in Organisationen auf. Die Potenziale für Staat, Unternehmen und Bildungssysteme werden zur Zeit sehr hoch eingeschätzt. Fünfzehn Beiträge beleuchten das Vertrauen in KI aus der wirtschafts-, sozial-, computer- und kulturwissenschaftlichen sowie interdisziplinären Perspektive. Leserinnen und Leser erhalten ein vielseitiges Bild über das Thema.
Sabrina Schork, Peter Gordon Rötzel

Wirtschaftswissenschaftliche Perspektive

Frontmatter
Kapitel 2. Künstliche Intelligenz (KI) – unser bester Freund?
Wie Menschen auf KI-Entscheidungsempfehlungen reagieren
Zusammenfassung
Künstliche Intelligenz (KI) hat sich zu einer transformativen Kraft entwickelt, die verschiedene Aspekte der täglichen Arbeit beeinflusst. Es stellt sich die Frage: Können Menschen freundschaftliche Beziehungen zu KI-Entscheidungsunterstützungssystemen aufbauen oder werden diese Systeme nur als Werkzeuge betrachtet? In diesem Kapitel werden die Dynamik, die Herausforderungen und die Möglichkeiten von Mensch-KI-Interaktionen (MKI) untersucht, wobei ein besonderer Fokus auf die entscheidende Rolle des Vertrauens in dieser Interaktion gelegt wird. Das Vertrauen in KI wird durch kognitive, emotionale und soziale Faktoren beeinflusst. Zu den kognitiven Faktoren gehören die Transparenz und Interpretierbarkeit von KI-Systemen, zu den emotionalen Faktoren gehören die emotionale Bindung und das Verhältnis zwischen Menschen und KI-Agenten und zu den sozialen Faktoren gehören gesellschaftliche Normen und kulturelle Einflüsse. Das Spannungsverhältnis zwischen Automatisierungs- und Algorithmusvermeidungstendenzen stellt eine komplexe Herausforderung für MKI dar. Automatisierungsbias bedeutet, sich unhinterfragt auf KI-Empfehlungen zu verlassen. Die Tendenz zur Algorithmusvermeidung beschreibt die Ablehnung oder das Übergehen von KI-Empfehlungen zugunsten eines menschlichen Urteils. Um dieses Spannungsfeld zu bewältigen, müssen transparente und erklärbare KI-Systeme entwickelt und eine effektive Zusammenarbeit zwischen Menschen und KI gefördert werden. Durch die Berücksichtigung dieser Faktoren und die Stärkung des Vertrauens kann MKI zu einer informierteren Entscheidungsfindung und einer effektiven Nutzung der KI-Funktionen führen.
Peter Gordon Rötzel
Kapitel 3. Kann Vertrauen eine Beziehung zwischen Menschen und Maschinen sein?
Institutionenvertrauen und CBMs als ein Lösungsansatz
Zusammenfassung
Für die Akzeptanz von Maschinen, wie den Systemen der (Informationstechnik), ist ein – wie auch immer geartetes – ‚Vertrauen‘ zu diesen Maschinen von zentraler Bedeutung. Ein Vertrauen in eine Maschine kann aber keine gegenseitige persönliche Beziehung sein, weil das System seinen Nutzerinnen und Nutzern nicht persönlich vertrauen kann. Ein Vertrauen in ein System ist zudem phänomenologisch gegen die Eigenschaft seiner Zuverlässigkeit abzugrenzen. Der Beitrag erörtert die Möglichkeit von Institutionenvertrauen – speziell in der Form von Markenvertrauen – in die Anwendungsszenarien von (IT-)Systemen. In der Konsequenz werden Elemente zur Gestaltung von Markenvertrauen und Vertrauensbildende Maßnahmen (Confidence Building Measures CBMs) für IT-Anwendungen identifiziert.
Georg Rainer Hofmann
Kapitel 4. Vertrauen als Motor des KI-Wertschöpfungszyklus
Implikationen aus systemtheoretischer Sicht
Zusammenfassung
Daten und Künstliche Intelligenz (KI) sind in einem Wertschöpfungszyklus zu einer synergetischen Beziehung verschmolzen. Das Vertrauen der Nutzenden ermöglicht diesen Kreislauf und treibt ihn an. Nutzende hegen allerdings ambivalente Gefühle gegenüber der Nutzung ihrer Daten. Der für einen nachhaltigen Erfolg der KI wichtige Zugang zu Daten steht auf dem Spiel. Dieser Beitrag diskutiert relevante KI-Vertrauensbeziehungen und deren emergente Komplexitätstreiber aus systemtheoretischer Sicht. Gestützt auf eine systematische Literaturanalyse werden fünf praktische Handlungsanweisungen und Design-Prinzipien formuliert. Damit entwickelt der Autor wertendes, festlegendes Wissen im Umgang mit KI.
Daniel Glinz

Sozialwissenschaftliche Perspektive

Frontmatter
Kapitel 5. Meine Kollegin, die KI – Wie die Nutzung von Künstlicher Intelligenz das schulische Lehren und Lernen verändert
Zusammenfassung
Die Verfügbarkeit von KI-basierten Technologien wie ChatGPT führt im Kontext schulischer Bildung sowohl zu großen Hoffnungen als auch zu vielfältigen Befürchtungen. Der vorliegende Beitrag beschäftigt sich daher mit der Frage, unter welchen Bedingungen KI-basierte Systeme zukünftig eine Bereicherung für das schulische Lehren und Lernen darstellen können. Hierbei trifft KI auf ein ‚träges‘ und durch Digitalisierung stark gefordertes Schulsystem, das sich vielen Herausforderungen, wie einer zunehmenden Heterogenität der Schülerinnen und Schüler, einem Mangel an qualifizierten pädagogischen Fachkräften und einer Belastung der Lehrkräfte durch eine Vielzahl an Aufgaben und Anforderungen stellen muss. Unklar ist, ob KI-basierte Systeme im schulischen Kontext diese insgesamt herausfordernde Situation abmildern können oder ob neue KI-Anwendungen eine zusätzliche Belastung für Lehrkräfte darstellen, auf die sie sich nur unzureichend vorbereitet fühlen. Um diese Frage zu beantworten, werden die Ergebnisse einer empirischen Untersuchung mit N = 141 Lehrkräften vorgestellt. Die Befunde zeigen, dass Lehrkräfte der Nutzung von KI gegenüber zwar positiv eingestellt sind, bei expliziter Nachfrage jedoch auch vielfältige Sorgen und Bedenken äußern. Um diese Bedenken zu adressieren und KI-Anwendungen als nützliches Werkzeug im schulischen Kontext und Möglichkeit zur Entlastung zu verstehen, ist die Entwicklung von Fort- und Weiterbildungsangeboten für Lehrkräfte zum Einsatz von KI-basierten Systemen im schulischen Kontext unerlässlich. Entsprechende Angebote werden im vorliegenden Beitrag daher ebenfalls thematisiert.
Katrin Böhme, Janne Mesenhöller
Kapitel 6. Vertrauensvolle KI – eine Diskussion aus psychologischer und pädagogischer Sicht
Zusammenfassung
Sprachliche Handlungen, die sonst nur in Begleitung anderer Menschen möglich waren, sind nun zu einer Funktionsweise der digitalen Technologie geworden. Künstliche Intelligenz (KI) lädt zur sozialen Interaktion ein. Verschiebungen können auf verschiedenen Ebenen wahrgenommen werden, sodass entscheidende Unterschiede zwischen Mensch und Technik benannt werden können: Denn nur das Lebendige kann Verantwortung für sich und andere übernehmen. Es bleibt daher umstritten, welche Einflussmöglichkeiten und welche Entscheidungen und ergo wie viel Entscheidungsmacht an eine KI (z. B. in Chatbots) übertragen werden. Dieser Beitrag betrachtet diese Fragen im Kontext verschiedener Beziehungssphären und Wissensinstitutionen. Wie in jeder Beziehung und Institution werden unreflektierte Aspekte der Praxis und Strukturen einer normierenden Macht schädlich. Um dieser Macht entgegenwirken zu können, bleibt die Fähigkeit, Verantwortung für Entscheidungen zu übernehmen, wesentlich.
Ines Langemeyer
Kapitel 7. Die Ethik der KI in Universitäten: Im Spannungsfeld zwischen Qualität, Identität und Privatsphäre
Zusammenfassung
In diesem Kapitel werden einige der soziologischen und philosophischen Bedenken diskutiert, die dem derzeitigen Einsatz von KI (oder Quasi-KI) im Bildungsbereich zugrunde liegen. Zunächst werden Begriffe definiert und Überschneidungsbereiche identifiziert. Anschließend werden ethische Aspekte des Einsatzes von KI in diesem Zusammenhang erörtert, einschließlich Datenqualität, Fairness, Rechenschaftspflicht, Datenschutz, Erklärbarkeit, Vertrauen und Transparenz sowie Verzerrung durch Algorithmen, die sich allesamt bei der Entwicklung internationaler Rechtsvorschriften zum Datenschutz im Zusammenhang mit KI widerspiegeln. Anschließend wird der epistemologische Wandel in der Hochschulbildung analysiert. Dies verdient besondere Aufmerksamkeit, da Universitäten zunehmend durch neue Methoden des Wissenserwerbs, der Klassifizierung des Wissens, der Darstellung dessen Inhalts und der Sicherstellung dessen Gültigkeit herausgefordert werden und diese neuen Methoden von den traditionellen Ansätzen der Wissenserstellung und -verbreitung abweichen. Im Anschluss daran werden zentrale Fragen zu KI, Privatsphäre und Identität erörtert, darunter die Rolle der Überwachung und die Auswirkungen auf die Identitätsbildung in der akademischen Welt. Schließlich werden in diesem Kapitel verschiedene Möglichkeiten für die Entwicklung von datenschutzfreundlichen Rahmenbedingungen für wissenschaftliche Aktivitäten innerhalb der KI-gestützten Universität aufgezeigt.
Sandra Leaton Gray

Computerwissenschaftliche Perspektive

Frontmatter
Kapitel 8. Bayes’sche Netze als Methode zur Implementierung transparenter, erklärbarer und vertrauenswürdiger Künstlicher Intelligenz
Zusammenfassung
Dieser Beitrag betrachtet die Verwendung von Bayes’schen Netzen als Methode zur Implementierung von transparenter, erklärbarer und vertrauenswürdiger Künstlicher Intelligenz (KI). Er beginnt mit einer Darstellung und Diskussion von Schlüsselkonzepten im Zusammenhang mit der Verwendung von Methoden der Künstlichen Intelligenz und der Implementierung von erklärbarer und vertrauenswürdiger KI. Der Beitrag diskutiert mehrere Konzepte aus dem Bereich der Bayes’schen Netze, die für die praktische Anwendung dieser Modelle in Systemen mit KI relevant sind. Zu den betrachteten Konzepten gehören unter anderem der Bayes-Faktor, die wahrscheinlichste Erklärung und die relevanteste Erklärung. Der Beitrag endet mit einem Fallbeispiel aus dem Bereich des automatisierten Fahrens, das veranschaulicht, wie transparente und erklärbare KI mithilfe von Bayes’schen Netzen umgesetzt werden kann, um eine vertrauenswürdige Lösung zu schaffen.
Anders L. Madsen, Galia Weidl
Kapitel 9. Fairness in KI-Systemen
Zusammenfassung
Je mehr KI-gestützte Entscheidungen das Leben von Menschen betreffen, desto wichtiger ist die Fairness solcher Entscheidungen. Dieser Beitrag gibt eine Einführung in die Forschung zu Fairness in KI-Systemen, erklärt die wesentlichen Fairness-Definitionen und Strategien zur Erreichung von Fairness anhand konkreter Beispiele und ordnet die Fairness-Forschung in den europäischen Kontext ein. Weder in der europäischen Gesetzgebung noch in der KI-Forschung kommt es dabei zu einem Konsens, wie Fairness zu definieren und zu erreichen ist. Stattdessen muss für jedes System eine differenzierte und kontextabhängige Betrachtung von möglichen unfairen Ergebnissen und deren Konsequenzen erfolgen. Dieser Beitrag kann dabei unterstützen und richtet sich an ein interdisziplinäres Publikum, indem auf mathematische Formulierungen verzichtet wird und stattdessen Visualisierungen und Beispiele genutzt werden.
Janine Strotherm, Alissa Müller, Barbara Hammer, Benjamin Paaßen
Kapitel 10. Kann man ChatGPT aus der Nutzerinnen- und Nutzerperspektive in der physikalischen Forschung und Lehre trauen?
Zusammenfassung
Die Vertrauenswürdigkeit von ChatGPT als Unterstützung für Forschende, Lehrende und Lernende in der Physik wird in Bezug auf die Einhaltung wissenschaftlicher Leitlinien und den Einsatz in der Lehre untersucht. Dabei wird festgestellt, dass ChatGPT den Definitionen für vertrauenswürdige KI per Konstruktion nicht genügen kann. Die Frage der Vertrauenswürdigkeit verschiebt sich somit auf die Forschenden und Lehrenden, die ChatGPT anwenden. Hierbei ergeben sich Herausforderungen in Bezug auf den Datenschutz und die Qualitätssicherung. In der Lehre zeigen bestimmte Ansätze wie Gamification und virtuelle Diskussionspartner positive Auswirkungen auf die Studienleistungen. ChatGPT selbst verneint die eigene Vertrauenswürdigkeit aufgrund mangelnder Erklärbarkeit und der nicht öffentlichen Trainingsdaten. Letztendlich hängt auch die Vertrauenswürdigkeit von ChatGPT stark vom Einsatzkontext und der Verantwortung der Forschenden ab.
Franz-Josef Schmitt
Kapitel 11. Vertrauensbildende Maßnahmen am Beispiel von KI-Anwendungen in der Hochschulbildung
Zusammenfassung
Im folgenden Beitrag werden die Fragen „Wie werden KI-Anwendungen in der (Hochschul-)Bildung eingesetzt?“ und „Wie kann (berechtigtes) Vertrauen in bestehende KI-Anwendungen aufgebaut werden?“ mit Hilfe einer Literaturanalyse bestehender angewandter Forschung beantwortet. Über Elicit, Google Scholar und ScienceDirect werden ab dem Jahr 2014 begutachtete englischsprachige Fachartikel recherchiert und anhand des Titels und des Abstracts ex- bzw. inkludiert. Der Fokus liegt auf den fünf Schlüsselwörtern Vertrauen, Künstliche Intelligenz, Lernen, Nutzungsrate und Bildung. Siebzehn Artikel werden ausgewählt und zusammenfassend qualitativ analysiert. Das Extrakt zeigt, dass KI-Anwendungen in der Bildung vor allem zur Analyse von Studierendendaten und zur Optimierung von Entscheidungsprozessen entlang des Lernprozesses eingesetzt werden. Im Mittelpunkt steht dabei die Individualisierung der Lehre auf Basis der Bedürfnisse der Lernenden. Der Einsatz von KI-Systemen kann die Qualität des Lernens und Lehrens verbessern. Aktuell wird eher die Lehrenden-Lernenden-Beziehung und weniger die Peer-Beziehung fokussiert. Das Vertrauen in KI-Systeme wird von der Reife der Maschinellen Intelligenz und der KI-Repräsentation bestimmt. Kognitive Faktoren wiegen schwerer als emotionale Faktoren. Empfohlen werden interdisziplinäre, langfristige und datenintensive Forschungsprojekte, die sich z. B. auf die Kalibrierung von Vertrauen konzentrieren.
Sabrina Schork

Kulturwissenschaftliche Perspektive

Frontmatter
Kapitel 12. Vertrauenswürdige KI – eine paradoxale Angelegenheit
Zusammenfassung
Der vorliegende Beitrag wird zuerst Vertrauen mit Verweisen auf konkrete Handlungskontexte in der lebensweltlichen Praxis beleuchten und feststellen, dass Vertrauen eine hohe Ambivalenz innewohnt und das richtige Maß vertrauensbildender Maßnahmen kontextgebunden ist. Anschließend wird der Frage nachgegangen, warum Mensch und Technik überhaupt eine reziproke und damit vertrauensvolle Beziehung eingehen können und führt Technik als sozialen Agenten mit einer eingebauten Moralität ein. Der Autor wird feststellen, dass Künstliche Intelligenz (KI) nicht geheimnisvoller als andere Technik und auch nichts dem Menschen Äußerliches ist. Vertrauen in KI kann deshalb nicht nur durch die Befolgung technischer Kriterien entstehen (Vertrauen durch Design), sondern muss mit Blick auf die konkreten KI-Anwendungen über eine kritische Öffentlichkeit, in einem kontinuierlichen, kritischen Dialog von Entwicklerinnen und Entwicklern, Anbietenden und Nutzenden hergestellt werden (Vertrauen durch Folgeabschätzung).
Stefan E. Slembrouck
Kapitel 13. Vertrauen in KI – kulturwissenschaftlich mediale Perspektiven
Zusammenfassung
Der Beitrag untersucht den Diskurskomplex ‚Vertrauen in KI‘ aus einer kulturwissenschaftlich medialen Perspektive. Zunächst erfolgt ein Überblick über die kulturwissenschaftlichen Zugänge. Die Besonderheiten des Vertrauens als zwischenmenschliche Beziehung werden im Kontext von Künstlicher Intelligenz (KI) erörtert. Anschließend dreht sich die Forschungsfrage um die mediale Repräsentation von KI in der deutschsprachigen Presse, um einen Einblick in den gesellschaftlichen Diskurs über ‚Vertrauen in KI‘ zu geben. Es wird exemplarisch aufgezeigt, wie ‚Vertrauen in KI‘ medial vermittelt wird und welche wiederkehrenden Muster, Einstellungen und kulturellen Praktiken vorliegen. Der Beitrag gewährt damit Einblicke in einen Mediendiskurs, der Vorstellungen und Einstellungen über KI und Vertrauen (de-)konstruiert und vermittelt.
Derya Gür-Şeker

Interdisziplinäre Perspektive

Frontmatter
Kapitel 14. Der Mensch im Mittelpunkt: Einblick in die Gestaltung Menschenzentrierter Künstlicher Intelligenz
Zusammenfassung
In diesem Kapitel wird die Entwicklung und Gestaltung Menschzentrierter Künstlicher Intelligenz (KI) aus einer interdisziplinärer Perspektive betrachtet. Ein besonderer Fokus liegt dabei auf der Schaffung nachvollziehbarer Systeme mithilfe Erklärbarer KI. Hierfür werden die Konzepte Vertrauen und Mentale Modelle als Messgrößen für die Wirkung von KI vorgestellt. Auf Basis von Forschungsarbeiten in drei exemplarischen Anwendungsszenarien (Bildung, Industrie und Medizin) wird gezeigt, wie Erklärbare KI auf Nutzerinnen und Nutzern wirkt. Damit leistet dieses Kapitel einen Einblick in die aktuelle Forschung der nachvollziehbaren und menschzentrierten KI-Entwicklung.
Katharina Weitz
Kapitel 15. Gamechanger KI im Sport und der Trainingswissenschaft – Können wir der Technologie heute schon vertrauen?
Zusammenfassung
Die Trainingswissenschaft ist aus der Trainingslehre sowie aus Handlungsanleitungen erfolgreicher Trainer entstanden. Die zentralen Gegenstandsbereiche adressieren auf das motorische Training, die Leistungsfähigkeit, den Wettkampf sowie die Leistungsdiagnostik. Die Adressatengruppen reichen vom Freizeit-, Breiten-, Spitzensport bis zum Gesundheitssport und decken die Klientel vom Kinder-, Jugend-, Aktiven Sport bis Sportangebote mit älteren Altersgruppen ab. Neue Technologien, digitale Anwendung und Künstliche Intelligenz (KI) als gesellschaftliche Megathemen, beeinflussen den Sport und insbesondere die Trainingswissenschaft auf fundamentale Weise und können im Positiven wie im Negativen als potenzieller Gamechanger (Spielveränderer) angesehen werden. Vertrauen, Wissen und ein kritischer reflektierter Blick auf die jeweilige Technologie, die digitale Anwendung sowie auf die Modelle der KI sind dabei wesentliche Voraussetzung, damit die Chancen der KI für den Sport und in die Trainingswissenschaft erkannt werden und Nutzenpotenziale zur Anwendung gelangen. Nationale und internationale datenschutzrechtliche, ethische und gesellschaftliche sowie fachinterne Diskussionen sind in diesem Kontext zu berücksichtigen und für die Scientific Community der Trainingswissenschaft anzustoßen. Wissen zu KI, Vertrauenswürdigkeit und erklärbare Modelle sind zu fokussieren.
Michael Fröhlich, Carlo Dindorf, Andrea Pieter, Eva Bartaguiz, Wolfgang Kemmler
Kapitel 16. Künstliche Intelligenz als vertrauenswürdiges Mentoring-System in der Erwachsenenbildung: Hürden, Fragen, Strategien
Zusammenfassung
Dieser Beitrag trägt dreifach zur Debatte über Vertrauen in KI-Systeme bei: Erstens, indem sie technische und aus Rahmenbedingungen resultierende Herausforderungen aus den Ergebnissen einer Evaluierung einer KI-gesteuerten Bildungsressourcen-Empfehlungsfunktion eines digitalen Studienassistenzsystems (DSA) ableitet. Zweitens extrapoliert dieser Beitrag Strategien, um die genannten Herausforderungen zu umgehen oder erfolgreich in deutsche Hochschulen zu integrieren. Schließlich argumentiert der Beitrag, dass vertrauenswürdige DSA-Systeme nur durch gemeinsame Anstrengungen technischer, organisatorischer und nutzerbezogener Maßnahmen erreicht werden können.
Johannes Schrumpf
Metadaten
Titel
Vertrauen in Künstliche Intelligenz
herausgegeben von
Sabrina Schork
Copyright-Jahr
2024
Electronic ISBN
978-3-658-43816-6
Print ISBN
978-3-658-43815-9
DOI
https://doi.org/10.1007/978-3-658-43816-6