Vertrauen in Künstliche Intelligenz
Eine multi-perspektivische Betrachtung
- 2024
- Buch
- Herausgegeben von
- Sabrina Schork
- Verlag
- Springer Fachmedien Wiesbaden
Über dieses Buch
Der vorliegende Band markiert einen initialen Schritt zur umfassenden Erörterung des Themenfelds ‚Vertrauen in KI‘ aus vielfältigen Blickwinkeln. Dabei wird eine Herangehensweise sowohl aus wirtschafts- und sozialwissenschaftlicher als auch aus informationstechnischer Perspektive gewählt, die zudem interdisziplinäre Aspekte einbezieht. Insgesamt präsentiert der Band fünfzehn Beiträge von 25 renommierten Autorinnen und Autoren, die ihre Expertise aus vierzehn unterschiedlichen Einrichtungen einbringen. Ziel dieser Debatten ist es, Lernende, Lehrende, Forschende sowie Entscheidungsträgerinnen und -träger aus Politik und Wirtschaft dazu zu befähigen, auf Basis von Fakten eine fundierte Meinung zu bilden. Auf dieser Grundlage sollen sie in der Lage sein, gut durchdachte persönliche Entscheidungen im Umgang mit KI zu treffen.
Inhaltsverzeichnis
-
Frontmatter
-
Buchvorspann
-
Frontmatter
-
Kapitel 1. Einleitung
Sabrina Schork, Peter Gordon RötzelDer Fachbeitrag behandelt die historische Entwicklung der Künstlichen Intelligenz, beginnend mit den frühen Arbeiten von Alan Turing und der Einführung des Begriffs 'KI' durch John McCarthy im Jahr 1955. Es wird die Bedeutung von Vertrauen in KI aus verschiedenen Perspektiven beleuchtet, einschließlich der wissenschaftlichen, wirtschaftlichen, sozialen und kulturellen Aspekte. Die Autoren diskutieren, wie Vertrauen in KI aufgebaut werden kann und welche Herausforderungen und Chancen damit verbunden sind. Besondere Aufmerksamkeit wird der interdisziplinären Zusammenarbeit gewidmet, die notwendig ist, um die komplexen Fragen rund um KI und Vertrauen zu adressieren. Der Beitrag bietet eine umfassende Analyse der aktuellen Forschung und Praxis und zeigt auf, wie Vertrauen in KI durch Transparenz, Regulierung und ethische Standards gefördert werden kann.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDas vorliegende Buch ‚Vertrauen in Künstliche Intelligenz – eine multi-perspektivische Betrachtung‘ wurde von der Forschungsprofessorin Dr. Sabrina Schork an der Technischen Hochschule Aschaffenburg initiiert. Zweiundzwanzig Expertinnen und Experten geben veränderungsmotivierten Menschen Handlungsempfehlungen und Praxisbeispiele an die Hand, wie sie KI-Systeme, die Mensch-Maschine-Beziehung und das institutionelle Umfeld aktiv gestalten können. Verschiedene experimentelle Studien zeigen enorme Produktivitätsgewinne und Leistungsschübe durch künstliche Intelligenz (KI) bei Menschen und in Organisationen auf. Die Potenziale für Staat, Unternehmen und Bildungssysteme werden zur Zeit sehr hoch eingeschätzt. Fünfzehn Beiträge beleuchten das Vertrauen in KI aus der wirtschafts-, sozial-, computer- und kulturwissenschaftlichen sowie interdisziplinären Perspektive. Leserinnen und Leser erhalten ein vielseitiges Bild über das Thema.
-
-
Wirtschaftswissenschaftliche Perspektive
-
Frontmatter
-
Kapitel 2. Künstliche Intelligenz (KI) – unser bester Freund?
Wie Menschen auf KI-Entscheidungsempfehlungen reagieren Peter Gordon RötzelDas Kapitel beleuchtet die zunehmende Integration von Künstlicher Intelligenz (KI) in den Arbeitsalltag und die Frage, ob Menschen KI als Freunde betrachten können. Es untersucht die Mensch-KI-Interaktion (MKI) und die Rolle des Vertrauens dabei. Kognitive, emotionale und soziale Faktoren werden analysiert, um die Entstehung und Aufrechterhaltung von Vertrauen in KI-Systemen zu verstehen. Herausforderungen wie Voreingenommenheit gegenüber der Automatisierung und die Tendenz zur Algorithmusvermeidung werden diskutiert. Das Kapitel betont die Bedeutung von Transparenz, Erklärbarkeit und Anpassungsfähigkeit von KI-Systemen. Es schließt mit einem Ausblick auf aktuelle Herausforderungen und Strategien zur Förderung des Vertrauens in KI-Systeme.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungKünstliche Intelligenz (KI) hat sich zu einer transformativen Kraft entwickelt, die verschiedene Aspekte der täglichen Arbeit beeinflusst. Es stellt sich die Frage: Können Menschen freundschaftliche Beziehungen zu KI-Entscheidungsunterstützungssystemen aufbauen oder werden diese Systeme nur als Werkzeuge betrachtet? In diesem Kapitel werden die Dynamik, die Herausforderungen und die Möglichkeiten von Mensch-KI-Interaktionen (MKI) untersucht, wobei ein besonderer Fokus auf die entscheidende Rolle des Vertrauens in dieser Interaktion gelegt wird. Das Vertrauen in KI wird durch kognitive, emotionale und soziale Faktoren beeinflusst. Zu den kognitiven Faktoren gehören die Transparenz und Interpretierbarkeit von KI-Systemen, zu den emotionalen Faktoren gehören die emotionale Bindung und das Verhältnis zwischen Menschen und KI-Agenten und zu den sozialen Faktoren gehören gesellschaftliche Normen und kulturelle Einflüsse. Das Spannungsverhältnis zwischen Automatisierungs- und Algorithmusvermeidungstendenzen stellt eine komplexe Herausforderung für MKI dar. Automatisierungsbias bedeutet, sich unhinterfragt auf KI-Empfehlungen zu verlassen. Die Tendenz zur Algorithmusvermeidung beschreibt die Ablehnung oder das Übergehen von KI-Empfehlungen zugunsten eines menschlichen Urteils. Um dieses Spannungsfeld zu bewältigen, müssen transparente und erklärbare KI-Systeme entwickelt und eine effektive Zusammenarbeit zwischen Menschen und KI gefördert werden. Durch die Berücksichtigung dieser Faktoren und die Stärkung des Vertrauens kann MKI zu einer informierteren Entscheidungsfindung und einer effektiven Nutzung der KI-Funktionen führen. -
Kapitel 3. Kann Vertrauen eine Beziehung zwischen Menschen und Maschinen sein?
Institutionenvertrauen und CBMs als ein Lösungsansatz Georg Rainer HofmannDer Fachbeitrag untersucht die Möglichkeit von Vertrauen in Beziehungen zwischen Menschen und Maschinen, insbesondere in Bezug auf IT-Systeme. Es wird erörtert, wie Institutionenvertrauen, speziell in Form von Markenvertrauen, in die Anwendungsszenarien von IT-Systemen integriert werden kann. Der Beitrag hebt hervor, dass persönliches Vertrauen in eine Maschine nicht möglich ist, da Maschinen keine gegenseitige persönliche Beziehung eingehen können. Stattdessen wird der Fokus auf Institutionenvertrauen und vertrauensbildende Maßnahmen (CBMs) gelegt. Es werden verschiedene Arten von Vertrauen und deren Unterschiede diskutiert, wie beispielsweise zwischen persönlichem Vertrauen und Zuverlässigkeit als technische Eigenschaft. Der Beitrag identifiziert auch die Bedeutung von Urvertrauen und dessen Übertragung auf die Interaktion mit IT-Systemen. Es werden konkrete Maßnahmen und Kriterien zur Gestaltung von Markenvertrauen und Vertrauensbildung in IT-Anwendungen vorgestellt, die für die Akzeptanz und das Vertrauen in IT-Systeme von zentraler Bedeutung sind. Ein weiterer Schwerpunkt liegt auf der Notwendigkeit von vertrauensbildenden Maßnahmen in der digitalen Welt und deren Rolle bei der Vermeidung von Missbrauch und Fehlfunktionen. Der Beitrag schließt mit einer Diskussion über offene Fragen und zukünftige Forschungsrichtungen, insbesondere die Notwendigkeit einer menschlichen Intervention in automatisierten Systemen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungFür die Akzeptanz von Maschinen, wie den Systemen der (Informationstechnik), ist ein – wie auch immer geartetes – ‚Vertrauen‘ zu diesen Maschinen von zentraler Bedeutung. Ein Vertrauen in eine Maschine kann aber keine gegenseitige persönliche Beziehung sein, weil das System seinen Nutzerinnen und Nutzern nicht persönlich vertrauen kann. Ein Vertrauen in ein System ist zudem phänomenologisch gegen die Eigenschaft seiner Zuverlässigkeit abzugrenzen. Der Beitrag erörtert die Möglichkeit von Institutionenvertrauen – speziell in der Form von Markenvertrauen – in die Anwendungsszenarien von (IT-)Systemen. In der Konsequenz werden Elemente zur Gestaltung von Markenvertrauen und Vertrauensbildende Maßnahmen (Confidence Building Measures CBMs) für IT-Anwendungen identifiziert. -
Kapitel 4. Vertrauen als Motor des KI-Wertschöpfungszyklus
Implikationen aus systemtheoretischer Sicht Daniel GlinzDer Beitrag untersucht das Vertrauen als zentralen Motor des KI-Wertschöpfungszyklus aus systemtheoretischer Perspektive. Es wird beleuchtet, wie Vertrauen den Zugang zu wertvollen Daten ermöglicht und welche ethischen und verantwortungsvollen Aspekte dabei eine Rolle spielen. Die rasante Entwicklung der KI und die damit verbundenen Herausforderungen, wie die Sicherung der Privatsphäre und die ethische Governance, werden detailliert analysiert. Besondere Aufmerksamkeit wird den emergenten Systemeigenschaften gewidmet, die das Vertrauen in KI-Systeme beeinflussen. Praktische Handlungsempfehlungen und Design-Prinzipien werden abgeleitet, um das Vertrauen in KI zu stärken und die Akzeptanz der Technologie zu fördern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDaten und Künstliche Intelligenz (KI) sind in einem Wertschöpfungszyklus zu einer synergetischen Beziehung verschmolzen. Das Vertrauen der Nutzenden ermöglicht diesen Kreislauf und treibt ihn an. Nutzende hegen allerdings ambivalente Gefühle gegenüber der Nutzung ihrer Daten. Der für einen nachhaltigen Erfolg der KI wichtige Zugang zu Daten steht auf dem Spiel. Dieser Beitrag diskutiert relevante KI-Vertrauensbeziehungen und deren emergente Komplexitätstreiber aus systemtheoretischer Sicht. Gestützt auf eine systematische Literaturanalyse werden fünf praktische Handlungsanweisungen und Design-Prinzipien formuliert. Damit entwickelt der Autor wertendes, festlegendes Wissen im Umgang mit KI.
-
-
Sozialwissenschaftliche Perspektive
-
Frontmatter
-
Kapitel 5. Meine Kollegin, die KI – Wie die Nutzung von Künstlicher Intelligenz das schulische Lehren und Lernen verändert
Katrin Böhme, Janne MesenhöllerDer Beitrag beleuchtet die rasante Entwicklung von Künstlicher Intelligenz (KI) und deren Einfluss auf das Bildungswesen. Es wird untersucht, wie KI-basierte Systeme wie ChatGPT das Lernen und Lehren verändern können. Die Studie basiert auf einer empirischen Untersuchung mit 141 Lehrkräften und zeigt sowohl die positiven Potenziale als auch die Bedenken und Herausforderungen auf, die mit der Nutzung von KI im schulischen Kontext verbunden sind. Dabei werden ethische, rechtliche und soziale Implikationen berücksichtigt und Lösungsansätze für eine nachhaltige Integration von KI in den Schulalltag vorgeschlagen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Verfügbarkeit von KI-basierten Technologien wie ChatGPT führt im Kontext schulischer Bildung sowohl zu großen Hoffnungen als auch zu vielfältigen Befürchtungen. Der vorliegende Beitrag beschäftigt sich daher mit der Frage, unter welchen Bedingungen KI-basierte Systeme zukünftig eine Bereicherung für das schulische Lehren und Lernen darstellen können. Hierbei trifft KI auf ein ‚träges‘ und durch Digitalisierung stark gefordertes Schulsystem, das sich vielen Herausforderungen, wie einer zunehmenden Heterogenität der Schülerinnen und Schüler, einem Mangel an qualifizierten pädagogischen Fachkräften und einer Belastung der Lehrkräfte durch eine Vielzahl an Aufgaben und Anforderungen stellen muss. Unklar ist, ob KI-basierte Systeme im schulischen Kontext diese insgesamt herausfordernde Situation abmildern können oder ob neue KI-Anwendungen eine zusätzliche Belastung für Lehrkräfte darstellen, auf die sie sich nur unzureichend vorbereitet fühlen. Um diese Frage zu beantworten, werden die Ergebnisse einer empirischen Untersuchung mit N = 141 Lehrkräften vorgestellt. Die Befunde zeigen, dass Lehrkräfte der Nutzung von KI gegenüber zwar positiv eingestellt sind, bei expliziter Nachfrage jedoch auch vielfältige Sorgen und Bedenken äußern. Um diese Bedenken zu adressieren und KI-Anwendungen als nützliches Werkzeug im schulischen Kontext und Möglichkeit zur Entlastung zu verstehen, ist die Entwicklung von Fort- und Weiterbildungsangeboten für Lehrkräfte zum Einsatz von KI-basierten Systemen im schulischen Kontext unerlässlich. Entsprechende Angebote werden im vorliegenden Beitrag daher ebenfalls thematisiert. -
Kapitel 6. Vertrauensvolle KI – eine Diskussion aus psychologischer und pädagogischer Sicht
Ines LangemeyerDer Beitrag untersucht die sozialen und ethischen Implikationen von Künstlicher Intelligenz (KI) aus psychologischer und pädagogischer Perspektive. Es wird diskutiert, wie KI als quasi-sozialer Akteur wahrgenommen wird und welche Verantwortungsbereiche und Grenzen dabei zu beachten sind. Besonders interessant ist die Analyse von KI-Systemen in beruflichen und professionellen Beziehungen, wo ein Gefälle zwischen Expertisen und Laientum besteht. Der Text betont die Notwendigkeit, KI nicht nur als Ersatz für menschliche Akteure zu sehen, sondern ihre spezifischen Eigenschaften und Grenzen zu verstehen. Es wird auch die Rolle von KI als neue Wissensinstanz und die Veränderungen in Verwissenschaftlichungsprozessen beleuchtet. Der Beitrag schließt mit der Frage, wie die Entwicklung technischer Intelligenz gesellschaftlich institutionalisiert werden kann und welche Spielräume für eine Gestaltung des gemeinsamen Lebens dabei entstehen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungSprachliche Handlungen, die sonst nur in Begleitung anderer Menschen möglich waren, sind nun zu einer Funktionsweise der digitalen Technologie geworden. Künstliche Intelligenz (KI) lädt zur sozialen Interaktion ein. Verschiebungen können auf verschiedenen Ebenen wahrgenommen werden, sodass entscheidende Unterschiede zwischen Mensch und Technik benannt werden können: Denn nur das Lebendige kann Verantwortung für sich und andere übernehmen. Es bleibt daher umstritten, welche Einflussmöglichkeiten und welche Entscheidungen und ergo wie viel Entscheidungsmacht an eine KI (z. B. in Chatbots) übertragen werden. Dieser Beitrag betrachtet diese Fragen im Kontext verschiedener Beziehungssphären und Wissensinstitutionen. Wie in jeder Beziehung und Institution werden unreflektierte Aspekte der Praxis und Strukturen einer normierenden Macht schädlich. Um dieser Macht entgegenwirken zu können, bleibt die Fähigkeit, Verantwortung für Entscheidungen zu übernehmen, wesentlich. -
Kapitel 7. Die Ethik der KI in Universitäten: Im Spannungsfeld zwischen Qualität, Identität und Privatsphäre
Sandra Leaton GrayDas Kapitel beleuchtet die ethischen Implikationen der Einführung von Künstlicher Intelligenz (KI) in Universitäten, insbesondere im Hinblick auf Qualität, Identität und Privatsphäre. Es untersucht die Geschichte der KI in der Bildung und die aktuellen Anwendungen, wie prädiktive Analyse, Deep Learning und neuronale Netze. Ein zentrales Thema ist die Analyse der Datenschutzbedenken und die Auswirkungen auf die wissenschaftliche Praxis. Darüber hinaus werden die Herausforderungen und Potenziale der KI-gestützten Forschung und Lehre diskutiert, einschließlich der ethischen Überlegungen und der Notwendigkeit einer transparenten Datennutzung. Das Kapitel schließt mit Überlegungen zur Neugestaltung der Privatsphäre und Identität im universitären Kontext durch den Einsatz von KI.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIn diesem Kapitel werden einige der soziologischen und philosophischen Bedenken diskutiert, die dem derzeitigen Einsatz von KI (oder Quasi-KI) im Bildungsbereich zugrunde liegen. Zunächst werden Begriffe definiert und Überschneidungsbereiche identifiziert. Anschließend werden ethische Aspekte des Einsatzes von KI in diesem Zusammenhang erörtert, einschließlich Datenqualität, Fairness, Rechenschaftspflicht, Datenschutz, Erklärbarkeit, Vertrauen und Transparenz sowie Verzerrung durch Algorithmen, die sich allesamt bei der Entwicklung internationaler Rechtsvorschriften zum Datenschutz im Zusammenhang mit KI widerspiegeln. Anschließend wird der epistemologische Wandel in der Hochschulbildung analysiert. Dies verdient besondere Aufmerksamkeit, da Universitäten zunehmend durch neue Methoden des Wissenserwerbs, der Klassifizierung des Wissens, der Darstellung dessen Inhalts und der Sicherstellung dessen Gültigkeit herausgefordert werden und diese neuen Methoden von den traditionellen Ansätzen der Wissenserstellung und -verbreitung abweichen. Im Anschluss daran werden zentrale Fragen zu KI, Privatsphäre und Identität erörtert, darunter die Rolle der Überwachung und die Auswirkungen auf die Identitätsbildung in der akademischen Welt. Schließlich werden in diesem Kapitel verschiedene Möglichkeiten für die Entwicklung von datenschutzfreundlichen Rahmenbedingungen für wissenschaftliche Aktivitäten innerhalb der KI-gestützten Universität aufgezeigt.
-
-
Computerwissenschaftliche Perspektive
-
Frontmatter
-
Kapitel 8. Bayes’sche Netze als Methode zur Implementierung transparenter, erklärbarer und vertrauenswürdiger Künstlicher Intelligenz
Anders L. Madsen, Galia WeidlDas Kapitel behandelt die Verwendung von Bayes’schen Netzen als Methode zur Implementierung transparenter und erklärbarer Künstlicher Intelligenz. Es wird die Einführung von Bayes’schen Netzen als Modell zur Darstellung von Unsicherheiten in verfügbarem Wissen und Daten erläutert. Ein laufendes Beispiel zur Modellierung von Fahrerermüdung zeigt, wie Bayes’sche Netze zur Erklärung und Transparenz in KI-Systemen beitragen können. Die Eigenschaften von Bayes’schen Netzen, wie die Darstellung kausaler Beziehungen und die Fähigkeit zur Propagation von Evidenzen, werden detailliert beschrieben. Der Text geht auch auf die Erklärbarkeit und Vertrauenswürdigkeit von KI-Systemen ein und diskutiert ethische Leitlinien für vertrauenswürdige KI. Ein Fallbeispiel aus dem Bereich des automatisierten Fahrens veranschaulicht die praktische Anwendung von Bayes’schen Netzen in komplexen Systemen. Insgesamt bietet der Beitrag einen umfassenden Überblick über die Vorteile und Anwendungsmöglichkeiten von Bayes’schen Netzen in der KI.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDieser Beitrag betrachtet die Verwendung von Bayes’schen Netzen als Methode zur Implementierung von transparenter, erklärbarer und vertrauenswürdiger Künstlicher Intelligenz (KI). Er beginnt mit einer Darstellung und Diskussion von Schlüsselkonzepten im Zusammenhang mit der Verwendung von Methoden der Künstlichen Intelligenz und der Implementierung von erklärbarer und vertrauenswürdiger KI. Der Beitrag diskutiert mehrere Konzepte aus dem Bereich der Bayes’schen Netze, die für die praktische Anwendung dieser Modelle in Systemen mit KI relevant sind. Zu den betrachteten Konzepten gehören unter anderem der Bayes-Faktor, die wahrscheinlichste Erklärung und die relevanteste Erklärung. Der Beitrag endet mit einem Fallbeispiel aus dem Bereich des automatisierten Fahrens, das veranschaulicht, wie transparente und erklärbare KI mithilfe von Bayes’schen Netzen umgesetzt werden kann, um eine vertrauenswürdige Lösung zu schaffen. -
9. Fairness in KI-Systemen
- Open Access
PDF-Version jetzt herunterladenDas Kapitel behandelt die zunehmende Nutzung von KI-Systemen in kritischen Entscheidungsprozessen und die Bedeutung von Fairness in diesen Systemen. Es wird erklärt, wie KI-Systeme unbeabsichtigt unfair sein können, trotz der Annahme, dass sie keine Vorurteile haben. Ein zentrales Beispiel ist ein KI-System zur Bewertung von Bewerbungen, das auf historisch voreingenommenen Daten basiert und dadurch bestimmte Gruppen benachteiligt. Das Kapitel stellt verschiedene Fairness-Definitionen vor, darunter Gruppenfairness, individuelle Fairness, kausale Fairness und dynamische Fairness. Jede Definition hat unterschiedliche Ansätze zur Bewertung der Fairness von KI-Systemen. Es werden auch Strategien zur Erreichung von Fairness in KI-Systemen diskutiert, wie Audit-Werkzeuge, Vorverarbeitung der Trainingsdaten und Nachbearbeitung von Modellen. Praktische Fallbeispiele, wie das Amazon-Bewerbungs-System und die Software COMPAS, veranschaulichen die Problematik der Unfairness in KI-Systemen. Das Kapitel schließt mit einer Betrachtung der europäischen Regulierungen zur Fairness in KI-Systemen und der Bedeutung der Einbettung in den spezifischen Anwendungskontext.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungJe mehr KI-gestützte Entscheidungen das Leben von Menschen betreffen, desto wichtiger ist die Fairness solcher Entscheidungen. Dieser Beitrag gibt eine Einführung in die Forschung zu Fairness in KI-Systemen, erklärt die wesentlichen Fairness-Definitionen und Strategien zur Erreichung von Fairness anhand konkreter Beispiele und ordnet die Fairness-Forschung in den europäischen Kontext ein. Weder in der europäischen Gesetzgebung noch in der KI-Forschung kommt es dabei zu einem Konsens, wie Fairness zu definieren und zu erreichen ist. Stattdessen muss für jedes System eine differenzierte und kontextabhängige Betrachtung von möglichen unfairen Ergebnissen und deren Konsequenzen erfolgen. Dieser Beitrag kann dabei unterstützen und richtet sich an ein interdisziplinäres Publikum, indem auf mathematische Formulierungen verzichtet wird und stattdessen Visualisierungen und Beispiele genutzt werden. -
Kapitel 10. Kann man ChatGPT aus der Nutzerinnen- und Nutzerperspektive in der physikalischen Forschung und Lehre trauen?
Franz-Josef SchmittDer Beitrag befasst sich mit der Frage, ob ChatGPT als vertrauenswürdige KI in der physikalischen Forschung und Lehre eingesetzt werden kann. Es werden verschiedene Definitionen von vertrauenswürdiger KI diskutiert, darunter die der Vereinten Nationen und der Europäischen Union. Die Einhaltung der Leitlinien zur Sicherung guter wissenschaftlicher Praxis der Deutschen Forschungsgemeinschaft (DFG) wird als grundlegende Voraussetzung für Vertrauen in KI betrachtet. Es wird untersucht, ob ChatGPT diese Kriterien erfüllt und wie es in der Praxis eingesetzt werden kann. Dabei wird auch die Rolle von Transparenz, Erklärbarkeit und ethischen Standards beleuchtet. Der Beitrag schließt mit Vorschlägen zur Nutzung von ChatGPT in der Lehre und Forschung.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Vertrauenswürdigkeit von ChatGPT als Unterstützung für Forschende, Lehrende und Lernende in der Physik wird in Bezug auf die Einhaltung wissenschaftlicher Leitlinien und den Einsatz in der Lehre untersucht. Dabei wird festgestellt, dass ChatGPT den Definitionen für vertrauenswürdige KI per Konstruktion nicht genügen kann. Die Frage der Vertrauenswürdigkeit verschiebt sich somit auf die Forschenden und Lehrenden, die ChatGPT anwenden. Hierbei ergeben sich Herausforderungen in Bezug auf den Datenschutz und die Qualitätssicherung. In der Lehre zeigen bestimmte Ansätze wie Gamification und virtuelle Diskussionspartner positive Auswirkungen auf die Studienleistungen. ChatGPT selbst verneint die eigene Vertrauenswürdigkeit aufgrund mangelnder Erklärbarkeit und der nicht öffentlichen Trainingsdaten. Letztendlich hängt auch die Vertrauenswürdigkeit von ChatGPT stark vom Einsatzkontext und der Verantwortung der Forschenden ab. -
Kapitel 11. Vertrauensbildende Maßnahmen am Beispiel von KI-Anwendungen in der Hochschulbildung
- Open Access
PDF-Version jetzt herunterladenDieser Fachbeitrag beleuchtet die vielfältigen Anwendungsbereiche von KI in der Hochschulbildung, wie z.B. die Profilerstellung, Leistungsbeurteilung und Individualisierung des Lernens. Es wird analysiert, wie KI-Anwendungen das Lernen und Lehren optimieren und welche Maßnahmen ergriffen werden müssen, um berechtigtes Vertrauen in diese Technologien zu schaffen. Die Autoren untersuchen institutionelle, software- und hardwareseitige Maßnahmen sowie die Rolle von Transparenz und Kommunikation beim Aufbau von Vertrauen. Besondere Aufmerksamkeit wird den kognitiven und emotionalen Faktoren geschenkt, die das Vertrauen in KI-Systeme beeinflussen. Der Beitrag bietet praktische Handlungsempfehlungen für Hochschulen und zeigt auf, wie KI-Anwendungen nachhaltig in den Bildungsprozess integriert werden können.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIm folgenden Beitrag werden die Fragen „Wie werden KI-Anwendungen in der (Hochschul-)Bildung eingesetzt?“ und „Wie kann (berechtigtes) Vertrauen in bestehende KI-Anwendungen aufgebaut werden?“ mit Hilfe einer Literaturanalyse bestehender angewandter Forschung beantwortet. Über Elicit, Google Scholar und ScienceDirect werden ab dem Jahr 2014 begutachtete englischsprachige Fachartikel recherchiert und anhand des Titels und des Abstracts ex- bzw. inkludiert. Der Fokus liegt auf den fünf Schlüsselwörtern Vertrauen, Künstliche Intelligenz, Lernen, Nutzungsrate und Bildung. Siebzehn Artikel werden ausgewählt und zusammenfassend qualitativ analysiert. Das Extrakt zeigt, dass KI-Anwendungen in der Bildung vor allem zur Analyse von Studierendendaten und zur Optimierung von Entscheidungsprozessen entlang des Lernprozesses eingesetzt werden. Im Mittelpunkt steht dabei die Individualisierung der Lehre auf Basis der Bedürfnisse der Lernenden. Der Einsatz von KI-Systemen kann die Qualität des Lernens und Lehrens verbessern. Aktuell wird eher die Lehrenden-Lernenden-Beziehung und weniger die Peer-Beziehung fokussiert. Das Vertrauen in KI-Systeme wird von der Reife der Maschinellen Intelligenz und der KI-Repräsentation bestimmt. Kognitive Faktoren wiegen schwerer als emotionale Faktoren. Empfohlen werden interdisziplinäre, langfristige und datenintensive Forschungsprojekte, die sich z. B. auf die Kalibrierung von Vertrauen konzentrieren.
-
-
Kulturwissenschaftliche Perspektive
-
Frontmatter
-
Kapitel 12. Vertrauenswürdige KI – eine paradoxale Angelegenheit
Stefan E. SlembrouckDas Kapitel untersucht die paradoxe Natur des Vertrauens in Künstliche Intelligenz (KI) und die Herausforderungen, sie als vertrauenswürdig zu gestalten. Es diskutiert, ob KI generell vertrauenswürdig ist und wie Vertrauen in Technik entsteht. Die philosophische und soziologische Perspektive wird genutzt, um die Unterschiede zwischen Vertrauen und Zuverlässigkeit zu beleuchten und die Rolle von Vertrauen in zwischenmenschlichen und technischen Beziehungen zu analysieren. Besondere Aufmerksamkeit wird der Frage gewidmet, ob KI so designet werden kann, dass sie grundsätzlich vertrauenswürdig ist, und welche ethischen Abwägungen dabei eine Rolle spielen. Das Kapitel schließt mit der Betrachtung der gesamtgesellschaftlichen Aufgabe, Vertrauen in KI zu fördern, und der Notwendigkeit einer kritischen Öffentlichkeit und funktionierenden Demokratie, um eine vertrauenswürdige KI zu ermöglichen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDer vorliegende Beitrag wird zuerst Vertrauen mit Verweisen auf konkrete Handlungskontexte in der lebensweltlichen Praxis beleuchten und feststellen, dass Vertrauen eine hohe Ambivalenz innewohnt und das richtige Maß vertrauensbildender Maßnahmen kontextgebunden ist. Anschließend wird der Frage nachgegangen, warum Mensch und Technik überhaupt eine reziproke und damit vertrauensvolle Beziehung eingehen können und führt Technik als sozialen Agenten mit einer eingebauten Moralität ein. Der Autor wird feststellen, dass Künstliche Intelligenz (KI) nicht geheimnisvoller als andere Technik und auch nichts dem Menschen Äußerliches ist. Vertrauen in KI kann deshalb nicht nur durch die Befolgung technischer Kriterien entstehen (Vertrauen durch Design), sondern muss mit Blick auf die konkreten KI-Anwendungen über eine kritische Öffentlichkeit, in einem kontinuierlichen, kritischen Dialog von Entwicklerinnen und Entwicklern, Anbietenden und Nutzenden hergestellt werden (Vertrauen durch Folgeabschätzung). -
Kapitel 13. Vertrauen in KI – kulturwissenschaftlich mediale Perspektiven
Derya Gür-ŞekerDer Beitrag untersucht das Vertrauen in Künstliche Intelligenz (KI) aus kulturwissenschaftlicher und medienanalytischer Perspektive. Seit der Veröffentlichung von ChatGPT im November 2022 hat die mediale Sichtbarkeit von KI-Anwendungen weltweit zugenommen, was sowohl Chancen als auch Vertrauensfragen in verschiedenen gesellschaftlichen Bereichen aufwirft. Der Fokus liegt auf der Analyse medialer Texte, um Muster und Regelhaftigkeiten im Diskurs über Vertrauen in KI zu erschließen. Dabei werden sechs relevante Bereiche der Kulturwissenschaft identifiziert und deren Bedeutung für das Verständnis von Vertrauen in KI untersucht. Die Analyse zeigt, wie Vertrauen in KI durch Transparenz, Nachvollziehbarkeit und ethische Rahmenbedingungen gestärkt werden kann. Historische und gegenwärtige gesellschaftliche Entwicklungen werden berücksichtigt, um die kulturellen und historischen Dimensionen des Umgangs mit KI zu beleuchten. Abschließend werden die wichtigsten Erkenntnisse zusammengefasst und deren Implikationen für verschiedene gesellschaftliche Bereiche diskutiert.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDer Beitrag untersucht den Diskurskomplex ‚Vertrauen in KI‘ aus einer kulturwissenschaftlich medialen Perspektive. Zunächst erfolgt ein Überblick über die kulturwissenschaftlichen Zugänge. Die Besonderheiten des Vertrauens als zwischenmenschliche Beziehung werden im Kontext von Künstlicher Intelligenz (KI) erörtert. Anschließend dreht sich die Forschungsfrage um die mediale Repräsentation von KI in der deutschsprachigen Presse, um einen Einblick in den gesellschaftlichen Diskurs über ‚Vertrauen in KI‘ zu geben. Es wird exemplarisch aufgezeigt, wie ‚Vertrauen in KI‘ medial vermittelt wird und welche wiederkehrenden Muster, Einstellungen und kulturellen Praktiken vorliegen. Der Beitrag gewährt damit Einblicke in einen Mediendiskurs, der Vorstellungen und Einstellungen über KI und Vertrauen (de-)konstruiert und vermittelt.
-
-
Interdisziplinäre Perspektive
-
Frontmatter
-
Kapitel 14. Der Mensch im Mittelpunkt: Einblick in die Gestaltung Menschenzentrierter Künstlicher Intelligenz
Katharina WeitzDas Kapitel 'Der Mensch im Mittelpunkt: Einblick in die Gestaltung Menschenzentrierter Künstlicher Intelligenz' untersucht die Bedeutung der Menschzentrierten KI, die darauf abzielt, die Interaktion zwischen Mensch und KI zu verbessern. Es definiert Begriffe wie Menschzentrierte KI und Erklärbare KI, und betrachtet historische Entwicklungen und aktuelle Herausforderungen. Besonders interessant sind die exemplarischen Studien aus den Bereichen Bildung, Industrie und Medizin, die zeigen, wie Erklärbare KI das Vertrauen und die mentalen Modelle der Nutzer und Nutzerinnen beeinflusst. Das Kapitel hebt die Notwendigkeit interdisziplinärer Forschung und Zusammenarbeit hervor, um effiziente und verantwortungsvolle KI-Systeme zu entwickeln.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIn diesem Kapitel wird die Entwicklung und Gestaltung Menschzentrierter Künstlicher Intelligenz (KI) aus einer interdisziplinärer Perspektive betrachtet. Ein besonderer Fokus liegt dabei auf der Schaffung nachvollziehbarer Systeme mithilfe Erklärbarer KI. Hierfür werden die Konzepte Vertrauen und Mentale Modelle als Messgrößen für die Wirkung von KI vorgestellt. Auf Basis von Forschungsarbeiten in drei exemplarischen Anwendungsszenarien (Bildung, Industrie und Medizin) wird gezeigt, wie Erklärbare KI auf Nutzerinnen und Nutzern wirkt. Damit leistet dieses Kapitel einen Einblick in die aktuelle Forschung der nachvollziehbaren und menschzentrierten KI-Entwicklung. -
Kapitel 15. Gamechanger KI im Sport und der Trainingswissenschaft – Können wir der Technologie heute schon vertrauen?
Michael Fröhlich, Carlo Dindorf, Andrea Pieter, Eva Bartaguiz, Wolfgang KemmlerDas Kapitel beleuchtet die Entwicklungen und Potenziale von Künstlicher Intelligenz im Sport und der Trainingswissenschaft. Es wird die historische Genese und die zentralen Gegenstandsbereiche der Trainingswissenschaft erläutert und die Vertrauenswürdigkeit von KI-Anwendungen kritisch hinterfragt. Besonders hervorgehoben werden die Anwendungsfelder von KI in der Leistungsdiagnostik, Trainingsoptimierung und Verletzungsprävention. Zudem werden Herausforderungen und offene Forschungsfelder diskutiert, die die zukünftige Integration von KI in die Trainingswissenschaft beeinflussen werden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Trainingswissenschaft ist aus der Trainingslehre sowie aus Handlungsanleitungen erfolgreicher Trainer entstanden. Die zentralen Gegenstandsbereiche adressieren auf das motorische Training, die Leistungsfähigkeit, den Wettkampf sowie die Leistungsdiagnostik. Die Adressatengruppen reichen vom Freizeit-, Breiten-, Spitzensport bis zum Gesundheitssport und decken die Klientel vom Kinder-, Jugend-, Aktiven Sport bis Sportangebote mit älteren Altersgruppen ab. Neue Technologien, digitale Anwendung und Künstliche Intelligenz (KI) als gesellschaftliche Megathemen, beeinflussen den Sport und insbesondere die Trainingswissenschaft auf fundamentale Weise und können im Positiven wie im Negativen als potenzieller Gamechanger (Spielveränderer) angesehen werden. Vertrauen, Wissen und ein kritischer reflektierter Blick auf die jeweilige Technologie, die digitale Anwendung sowie auf die Modelle der KI sind dabei wesentliche Voraussetzung, damit die Chancen der KI für den Sport und in die Trainingswissenschaft erkannt werden und Nutzenpotenziale zur Anwendung gelangen. Nationale und internationale datenschutzrechtliche, ethische und gesellschaftliche sowie fachinterne Diskussionen sind in diesem Kontext zu berücksichtigen und für die Scientific Community der Trainingswissenschaft anzustoßen. Wissen zu KI, Vertrauenswürdigkeit und erklärbare Modelle sind zu fokussieren. -
Kapitel 16. Künstliche Intelligenz als vertrauenswürdiges Mentoring-System in der Erwachsenenbildung: Hürden, Fragen, Strategien
Johannes SchrumpfDer Beitrag beleuchtet die Nutzung von Künstlicher Intelligenz (KI) als vertrauenswürdiges Mentoring-System in der Erwachsenenbildung. Es wird untersucht, wie KI-gestützte Systeme Studierende dabei unterstützen können, ein selbstbestimmtes Lernparadigma zu entwickeln. Dabei werden technologische Herausforderungen wie die Auswahl und das Training von KI-Algorithmen, strukturelle Hürden wie Datenschutzrichtlinien und die Integration in bestehende Bildungssysteme sowie nutzerbezogene Herausforderungen wie die Akzeptanz und das Vertrauen der Studierenden in die Systeme analysiert. Der Beitrag stellt Strategien vor, um diese Herausforderungen zu bewältigen und das Vertrauen in KI-gestützte Mentoring-Systeme zu stärken. Dazu gehören technische Strategien wie die sorgfältige Auswahl und Implementierung von Algorithmen, strukturelle Strategien wie die Entwicklung einer strategischen Position für die Integration von KI in Universitäten und nutzerbezogene Strategien wie die Bildung und Aufklärung der Studierenden über KI-Systeme. Der Beitrag schließt mit offenen Fragen und Perspektiven für zukünftige Forschung, um die Integration von KI in die Erwachsenenbildung weiter voranzutreiben.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDieser Beitrag trägt dreifach zur Debatte über Vertrauen in KI-Systeme bei: Erstens, indem sie technische und aus Rahmenbedingungen resultierende Herausforderungen aus den Ergebnissen einer Evaluierung einer KI-gesteuerten Bildungsressourcen-Empfehlungsfunktion eines digitalen Studienassistenzsystems (DSA) ableitet. Zweitens extrapoliert dieser Beitrag Strategien, um die genannten Herausforderungen zu umgehen oder erfolgreich in deutsche Hochschulen zu integrieren. Schließlich argumentiert der Beitrag, dass vertrauenswürdige DSA-Systeme nur durch gemeinsame Anstrengungen technischer, organisatorischer und nutzerbezogener Maßnahmen erreicht werden können.
-
-
17. Erratum zu: Vertrauen in Künstliche Intelligenz
Sabrina SchorkDas Kapitel untersucht die essenziellen Aspekte von Fairness in KI-Systemen und vertrauensbildenden Maßnahmen in der Hochschulbildung. Es wird aufgezeigt, wie Fairness in KI-Systemen gewährleistet werden kann, um Diskriminierung zu vermeiden und Vertrauen bei den Nutzern zu schaffen. Dabei werden sowohl theoretische Grundlagen als auch praktische Anwendungsbeispiele diskutiert. Ein weiterer Schwerpunkt liegt auf der Implementierung von vertrauensbildenden Maßnahmen in der Hochschulbildung, um die Akzeptanz und das Vertrauen in KI-Anwendungen zu erhöhen. Die Autoren beleuchten die Herausforderungen und Lösungsansätze, die sich aus der Integration von KI in Bildungsprozesse ergeben. Zudem wird die Bedeutung von Open Access und die rechtlichen Rahmenbedingungen für die Nutzung und Verbreitung von KI-Inhalten thematisiert. Der Beitrag bietet somit wertvolle Einblicke für Fachleute, die sich mit der ethischen und rechtlichen Dimension von KI auseinandersetzen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
- Titel
- Vertrauen in Künstliche Intelligenz
- Herausgegeben von
-
Sabrina Schork
- Copyright-Jahr
- 2024
- Electronic ISBN
- 978-3-658-43816-6
- Print ISBN
- 978-3-658-43815-9
- DOI
- https://doi.org/10.1007/978-3-658-43816-6
Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.