Philosophisches Handbuch Künstliche Intelligenz
- 2024
- Book
- Editor
- Klaus Mainzer
- Publisher
- Springer Fachmedien Wiesbaden
About this book
Das Handbuch schlägt die Brücke von der Grundlagenforschung zum Orientierungswissen. Es greift damit die Bildungs- und Ausbildungsziele der bundesweiten MINT-Initiative auf, die Mathematik (M), Informatik (I), Naturwissenschaft (N) und Technik (T) als fachübergreifendes Schlüsselwissen für technisch-wissenschaftlich gestützte Gesellschaften versteht. Additives Wissen und Ausbildung in getrennten Disziplinen der Mathematik, Informatik, Naturwissenschaft und Technik reichen aber nicht aus. In der Künstlichen Intelligenz wachsen diese Disziplinen mit den Human- und Sozialwissenschaften zusammen.
Zunächst sollen die Grundlagen der KI-Forschung methodisch und begrifflich geklärt werden. Philosophie wird als Grundlagenforschung verstanden, die logisch und methodisch die Prinzipien von Wissenschaft und Technik untersucht. Daher handelt es sich um ein „Philosophisches Handbuch“ (in diesem Fall der KI) und nicht um eine Bindestrich-Philosophie, also ein Handbuch der Philosophie einer Einzelwissenschaft. Denken und Wissen selber und das Selbstverständnis der Menschen verändern sich durch KI grundlegend.
Table of Contents
-
Grundlagen von neuronalen Netzen und Lernalgorithmen
-
Frontmatter
-
Grundlagenfragen der Neurocomputation und Neurokognition
Holger LyreZusammenfassungDer Artikel behandelt philosophische Grundlagenfragen der Computation und der Kognition in neuronalen Systemen. Im Zentrum steht die computationale Theorie des Geistes in ihrem Wandel vom symbolistisch-regelbasierten Paradigma der klassischen KI zum konnektionistischen Paradigma auf der Basis neuronaler Netze und neurocomputationaler Modelle der Kognition. Es werden verschiedene Arten der Computation (digital, analog, neuronal) und Konzeptionen von Computation (strukturell-kausal, mechanistisch, semantisch) analysiert. Nach Vorstellung der computationalen und repräsentationalen Theorie des Geistes werden Theorien der Semantik und Repräsentation behandelt. Schließlich werden Fragen des Subsymbolismus und distribuierter neuronaler Repräsentationen und das Konzept strukturaler Repräsentation diskutiert. -
Verifikation und Sicherheit für Neuronale Netze und Machine Learning
Klaus MainzerZusammenfassungIm Machine learning spielen neuronale Netze nach dem Vorbild des menschlichen Gehirns eine dominante Rolle. Der Durchbruch der KI-Forschung in der Praxis hängt wesentlich mit der Fähigkeit neuronaler Netze zusammen, große Datenmengen (Big Data) z. B. bei der Mustererkennung, beim autonomen Fahren, in der Robotik und in Industrie 4.0 mit effektiven Lernalgorithmen anzuwenden. Obwohl die technische Zivilisation zunehmend von diesen KI-Algorithmen abhängt, sind sie mit erheblichen Sicherheitsrisiken verbunden. Praktische Anwendungen erfordern Tausende von Neuronen und Synapsen in mehrschichtigen neuronalen Netzen (deep learning), die statistisch nur mit endlich vielen Datensätzen von Inputs und Outputs trainiert werden: Man setzt auf die statistischen Erwahrtungswahrscheinlichkeiten von gewünschten Outputs (z. B. Bewegungsverhalten von Robotern, Automobilen und Flugzeugen), die durch geeignete Trainingsdaten erreicht werden sollen. Niemand durchschaut aber bzw. kann im Einzelnen kontrollieren, was in den nicht linearen Wechselwirkungen der Neuronen und Synapsen zwischen Inputs und Outputs abläuft. Daher sind diese neuronalen Netze für Anwender und Entwickler „Schwarzen Kästen“ (Black Boxes), die grundlegende Fragen der Sicherheit, des Vertrauens in Technik und der Verantwortung aufwerfen. Dieser Artikel erklärt neuartige Verifikationsverfahren, mit denen Sicherheitsstandards von neuronalen Netzen berechnet und garantiert werden können (Xiang et al. 2018). Bemerkenswert ist, dass diese Verifikationsverfahren aus der logisch-mathematischen Grundlagenforschung abgeleitet sind. Sie unterstreichen deshalb noch einmal (wie häufig in diesem Handbuch), dass Fragen der Sicherheit, Ethik und Verantwortung nicht von der Grundlagenforschung und Erkenntnistheorie getrennt werden können. -
Statistisches und kausales Lernen im Machine Learning
Klaus MainzerZusammenfassungDie praktischen Anwendungen des Machine Learning, die zum Hype der Künstlichen Intelligenz führten, beruhen weitgehend auf Algorithmen des statistischen Lernens. Statistisches Lernen ist aber nur eine Form schwacher künstlicher Intelligenz, die selbst von einfachen Organismen der Evolution realisiert wird. Kausales Lernen ermöglicht erste Schritte zu Algorithmen einer starken künstlichen Intelligenz. -
Neuromorphe Computer und Künstliche Intelligenz
Klaus MainzerZusammenfassungDie klassische KI-Forschung orientiert sich an den Leistungsmöglichkeiten eines programmgesteuerten Computers, der nach der Churchschen These im Prinzip mit einer Turingmaschine äquivalent ist. Nach dem Mooreschen Gesetz wurden damit bis heute gigantische Rechen- und Speicherkapazitäten erreicht. Aber die Leistungen von Supercomputern haben einen Preis, dem die Energie einer Kleinstadt entsprechen kann. Umso beeindruckender sind menschliche Gehirne, die Leistungen des KI-Systems WATSON (z. B. eine natürliche Sprache sprechen und verstehen) mit dem Energieverbrauch einer Glühlampe realisieren. Spätestens dann ist man von der Effizienz neuromorpher Systeme wie biologische Gehirne beeindruckt, die in der Evolution entstanden sind. Der folgende Artikel zeigt zunächst, dass biologische Gehirne sich als komplexe dynamische Systeme auffassen lassen. Das Modell komplexer neuronaler Netze lässt sich aber nicht nur wie bisher im Machine Learning auf digitalen Computern simulieren, sondern auch technisch als Hardware mit neuartigen digitalen und analogen Einheiten wie einem Memristor realisieren (Mainzer 2019, Kap. 10.1; Mainzer 2024). Trainingsalgorithmen des Machine Learning können für diese neuartige Rechnerarchitektur (im Unterschied zur von Neumann-Architektur) eingerichtet werden und kommen damit der tatsächlichen Arbeitsweise natürlicher Intelligenz mit biologischen Gehirnen sehr nahe. -
Superintelligenz durch Quantencomputer?
Klaus MainzerZusammenfassungQuantencomputer nutzen Quanteneffekte wie Superpositionen und Verschränkungen von Quantenzuständen, die in den philosophischen Grundlagen der Quantenwelt tief verwurzelt sind. Technisch führt der Quantencomputer zu exponentieller Steigerung der Rechenkapazität, mit der praktische Grenzen der Problemlösung überwunden werden. Unberührt bleiben prinzipielle logisch-mathematische Grenzen der Berechenbarkeit. Es eröffnen sich zudem neue Perspektiven der Quantenkommunikation bis zu einem Quanteninternet, das die Möglichkeiten cyberphysikalischer Systeme und damit den gesellschaftlichen Impact verändert. Am Ende stellt sich die Frage, wie Quantengehirne auf der Grundlage neuronaler Quantennetze arbeiten.
-
-
Grundlagen kognitiver und sozialer Roboter
-
Frontmatter
-
Künstliche Intelligenz mit Körper
Sami HaddadinZusammenfassungModerne Roboter und andere komplexe Maschinen sind nicht nur mit immer ausgeklügelteren intelligenten Algorithmen ausgestattet, sie besitzen vor allem einen mit zunehmend neuartigen Fähigkeiten ausgestatteten Körper, der es ihnen grundsätzlich ermöglicht sich in der physischen Welt zu bewegen und mit dieser zu interagieren. Diese sich rasant entwickelnde Zukunftstechnologie der verkörperten Künstlichen Intelligenz (KI), also der KI mit Körper, besitzt mittel- und langfristig enormes Potenzial zur Lösung großer gesellschaftlicher Herausforderungen, wie der einer zunehmend älter werdenden Gesellschaft oder dem Klimawandel, beizutragen. Sie hält Lösungen zur Abschaffung menschenunwürdiger Arbeit in der Produktion bereit, ermöglicht neue Mobilitätskonzepte und fördert die personalisierte Medizin. Gleichzeitig stellt verkörperte KI die Forschung aber auch vor ganz besondere Herausforderungen. Künstliche Intelligenz mit und ohne Körper funktionieren nämlich grundlegend verschieden, wobei die großen Fortschritte künstlicher Intelligenz ohne Körper nun auch die ungleich höheren Anforderungen derer mit Körper befruchten. Diesen neuen Weg an der Schnittstelle zwischen Künstlicher Intelligenz, Robotik und Perzeption beschreitet die Munich School of Robotics and Machine Intelligence als neues Integratives Forschungszentrum der TUM. -
Kognitive Systeme und Neurorobotik
Nicolas Berberich, Gordon ChengZusammenfassungIn diesem Kapitel stellen wir die wissenschaftliche Disziplin „Neuroingenieurwesen“ vor, welche aus der synergetischen Verbindung von Neurowissenschaft und Ingenieurwissenschaften besteht. Wir zeigen auf, dass diese Verbindung bidirektional ist, da einerseits ingenieurwissenschaftliche Methoden den wissenschaftlichen Fortschritt in den Neurowissenschaften beflügeln und andererseits neurowissenschaftliche Erkenntnisse es Ingenieuren ermöglichen, bessere technische Systeme zu entwickeln.Diese Wechselseitigkeit veranschaulichen wir anhand zweier Unterbereiche des Neuroingenieurswesen – neuro-inspirierte kognitive Systeme und bidirektionale neuronale Schnittstellen. Neuro-inspirierte kognitive Systeme sind diejenige Art von KI, bei der es in besonderem Maße auf das Zusammenspiel verschiedener kognitiver Fähigkeiten (Lernen, Vorhersagen, Schlüsse ziehen, Wahrnehmen, Planen usw.) eines Systems ankommt, damit komplexe Ziele ressourcen-effizient erreicht werden können. Für die energie-effiziente Implementation von kognitiven Funktionen erweist sich die neuronale Robotik als ein vielversprechendes Forschungsfeld, wie am Beispiel einer neuro-inspirierten Roboterhaut dargestellt wird.Während Forschung zu künstlichen kognitiven Systemen die Autonomie von Maschinen zum Ziel hat, geht es beim Forschungsfeld der bidirektionalen neuronalen Schnittstellen um die Verbindung von menschlicher und maschineller Autonomie. Beispiele dafür sind die Neuroprothetik, Brain-Computer Interfaces und Neurorehabilitation. -
Embodiment and Humanoid Robotics
Thomas Mergner, Michael Funk, Vittorio LippiAbstractThe concept of embodiment (i.e. of a bodily basis) of human cognition has a long history in philosophy and nowadays develops a growing impact on humanoid robotics. There, inspirations often aim at mimicking human skills and achieving friendly and fruitful human-robot interaction (HRI). This article considers as an example the embedding of the sense of self-agency (SSA) in very basic human sensorimotor control mechanisms and, after its modeling, its ‘re-embodiment’ into human-inspired robots. From this it is concluded that (1) robotics profits with respect to robot safety, control robustness, versatility, energy costs, and HRI from implementing human sensorimotor control concepts, and (2) vice versa, concepts of human cognitive and physiological functions may profit when confronted with ‘real world’ tests in robots. -
TOM und KI
Hans FörstlZusammenfassungNaturgemäß hängen Lebewesen an ihrem Leben und an ihrem Wesen. Dem Menschen (homo sapiens) scheint im Wesentlichen das weise Sozialverhalten überlebenswichtig und er sucht sich selbst in anderen besser zu verstehen. Theory of Mind (TOM) ist dieser Versuch sich in die Perspektiven eines anderen Subjekts hineinzuversetzen. Aus diesem tieferen Verständnis entstehen Mitgefühl, Rücksicht, Respekt, aber auch Scham, Verachtung und Hass u. v. a.. TOM beschäftigt ständig einen großen Teil der Zentralnervensystems sozialer Lebewesen. Nach der kindlich-philosophischen Entwicklungsphase folgen Menschen aus rationellen Gründen ihrem emotionalen Grundbedürfnis und gehen ganz selbstverständlich davon aus, dass andere Personen im Wesentlichen ihrem Selbst innerlich ähnlich sind, entsprechend empfinden, denken und sich verhalten. Dies bleibt letztlich eine unbeweisbare Annahme, eine tröstliche Illusion. Rechenmaschinen benötigen Strom und kompetente Wartung, nicht aber Nestwärme. Komplexes Verhalten lässt sich auch ohne fragwürdige Intuitionen allein mithilfe hoher Rechenleistung vorhersagen.
-
-
Grundlagen intelligenter Infrastrukturen
-
Frontmatter
-
Modellierung und Simulation in der Künstlichen Intelligenz
Hajo GreifZusammenfassungIn diesem Beitrag werden die wesentlichen Unterschiede zwischen den verschiedenen Arten der Bezugnahme von Modellen und Simulationen in der Künstliche-Intelligenz-Forschung (KI) herausgearbeitet. Zu diesem Zweck wird eine Taxonomie von Ansätzen in der KI entwickelt, basierend auf den Unterscheidungen zum einen zwischen formalen und materiellen Modellen und zum anderen zwischen theoriegeleiteten und vortheoretischen Modellen in den Wissenschaften. Diese Unterscheidungen bieten Aufschluss zu Fragestellungen sowohl in der Wissenschaftsphilosophie als auch in der Philosophie der KI: Wie beziehen sich Simulationen auf Sachverhalte? Was sind die Ziele, Zwecke und Bedingungen der Bezugnahme? Welchen Einfluss haben Antworten auf diese Fragen auf die unterschiedlichen Forschungsprogramme der KI? -
Erklärbarkeit und Transparenz im Machine Learning
Bernhard WaltlZusammenfassungKI Systeme haben längst ihren Einzug in den Alltag moderner Gesellschaften gefunden. Sie treffen autonome Entscheidungen, beeinflussen den Alltag von Menschen und können mit rechtlichen Bestimmungen in Konflikt stehen. Die mangelnde Transparenz von KI Systemen wird zunehmend zu einem Problem und ist angesichts der technischen Möglichkeiten zu einem gewissen Grad auch eine bequeme Ausrede derer, die die Systeme entwickeln oder einsetzen. Der vorliegende Beitrag entmystifiziert KI und diskutiert die Rolle von Transparenz und Erklärbarkeit von KI Systemen anhand konkreter Beispiele. -
Von Cyberphysikalischen Systemen zu intelligenten Infrastrukturen
Sabine ThürmelZusammenfassungIn Cyberphysikalische Systemen (CPS) erfassen Sensoren physikalische Daten. CPS-Anwendungen sammeln Informationen, verdichten sie und werten sie aus. Das Ziel ist die Prozessoptimierung, wobei Aktuatoren auf physikalische Vorgänge einwirken. Hierbei wird der Automatisierungsgrad erhöht und der Kontrollfluss verändert. CPS lassen sich als Smart Home oder Smart Factory in Alltags- und Arbeitsumgebungen einbetten. Durch die Vernetzung intelligenter Systemelemente können intelligente Infrastrukturen entstehen, die sich durch Adaption und Selbstorganisation auszeichnen, wobei Multiagentensysteme zur dezentralen Kontrolle genutzt werden können. In der Vision der Smart City kommt diese Idee zum Tragen: Eine Smart City ist ein urbaner Raum, dessen Elemente mit Sensoren und Aktuatoren ausgestattet sind, um die Effizienz der Stadtinfrastruktur zu verbessern und bürgernahe Dienstleistungen anzubieten. Schon heute ermöglichen Big Data Analyseverfahren Efffizienzverbesserungen und die Blockchain-Technologie steht für das Versprechen, Interaktionen ohne Intermediäre zu ermöglichen. Mikrodirektiven werden die Freiheitsgrade der die Infrastruktur nutzenden Menschen (und Maschinen) einschränken können. -
Mensch, Künstliche Intelligenz und Kollaborativer Roboter (CoBots) – sind drei einer zu viel? Ein Blick in die Arbeitswelt von morgen
Wieland Holfelder, Max SengesZusammenfassungWas wäre, wenn Roboter nicht den Menschen ersetzen, sondern neben ihm arbeiten würden? Genau diese mögliche Realität, in der Cobots (Kollaborative Roboter) und künstliche Intelligenz (KI) miteinander verknüpft sind, wird in diesem Artikel ausgearbeitet. Eine Demokratisierung von KI und Cobots könnte für erhebliche und kontinuierliche Wohlfahrt sorgen, und so z. B. den aktuell prognostizierten, nachteiligen demografischen Entwicklungen entgegentreten. Daneben könnte es der Mittelschicht in einer Digitalen Ökonomie zu neuer Blüte verhelfen. Cobots übernehmen in diesem Modell die Arbeit im Sinne von Hannah Arendt. Das würde den Menschen in die Lage versetzen das kreative Schaffen in den Vordergrund zu stellen, sprich hauptsächlich die unternehmerischen und schöpferischen Aspekte unseres professionellen Engagements wahrzunehmen. Wichtig ist dabei, die ethischen Aspekte beim Einsatz von KI und Cobots speziell im Kontext auf die Zukunft menschlicher Arbeit zu analysieren und zu gestalten. Dabei stehen Sicherheitsaspekte und die faire Behandlung der Mitarbeiter im Vordergrund.
-
-
Ethische und rechtliche Herausforderungen der Künstlichen Intelligenz
-
Frontmatter
-
Künstliche Intelligenz – ethische und rechtliche Herausforderungen
Susanne BeckZusammenfassungDie Komplexität und Selbstständigkeit von KI sowie die Zunahme der Lebensbereiche, in der sie Entscheidungen unterstützen oder gar selbst treffen soll, stellen die Ethik und das Recht vor neue Herausforderungen. Gerade weil die Entscheidungen lernender Systeme ex ante kaum vorhersehbar und ex post kaum beweisbar sind, birgt ihr Einsatz besondere, bisher unbekannte Risiken. Dies führt zu Problemen bei der Kosten-Nutzen-Analyse der Technologie, bei der Zulassung – insbesondere weil die Maschinen sich ja auch während der Nutzung noch weiterentwickeln sollen – aber auch bei etwa der Aufklärung von Patienten, die mit diesen Maschinen behandelt werden. Schließlich ergeben sich auch neue Risiken und Gefahren, etwa die einer nicht sofort erkennbaren Diskriminierung durch eine scheinbar neutrale Maschine. Auf diese Entwicklungen muss die Gesellschaft aktuell dringend Antworten finden, insbesondere ist zu diskutieren, in welchen Lebensbereichen Entscheidungen überhaupt auf Maschinen übertragen werden dürfen, welche Korrelationen und Kategorisierungen akzeptabel und welche diskriminierend sind, ob Entscheidungen zwangsläufig auch kausal begründet werden müssen, etc. Zudem stellt sich die Frage, wem die (Teil-)Entscheidungen der Maschine normativ zuzurechnen sind – problematisch kann es jedenfalls sein, insofern primär auf den die Entscheidung absegnenden Menschen, den „human in the loop“, abzustellen (Sharkey 2016, S. 23–38; Zanzotto 2018. S. 247–248). Denn nicht selten ist der letztentscheidende Mensch hiermit überfordert – und die Schwierigkeit, sich gegen einen maschinellen Vorschlag zu entscheiden, von dem man weiß, dass er auf sehr vielen Informationen und sehr schneller Rechenleistung beruht, ist auch normativ nachvollziehbar. Insofern ist nicht verwunderlich, dass sich gerade das Konzept der Verantwortung sowohl auf moralischer als auch auf rechtlicher Ebene durch die neuen Entwicklungen fundamental ändert. -
Ethische und rechtliche Herausforderungen des autonomen Fahrens
Christoph Lütge, Alexander Kriebitz, Max RaphaelZusammenfassungIn den letzten Jahrzehnten haben sich die technischen Möglichkeiten im Bereich des autonomen Fahrens so stark erweitert, dass in naher Zukunft mit einer Einführung vollkommen autonomer Fahrzeuge zu rechnen ist. Aufgrund der steigenden Präsenz autonomer und vernetzter Fahrsysteme im Straßenverkehr, was sich nicht nur den Nutzerkreis sondern auch auf die Allgemeinheit auswirken wird, ist eine Auseinandersetzung mit den ethischen und rechtlichen Herausforderungen dieser Technologie dringend erforderlich. Der ethisch relevante Unterschied im Gegensatz zum herkömmlichen Fahren ist dabei hauptsächlich die Übernahme menschlicher Entscheidungen durch Computerprogramme, was grundsätzlich neuartige Fragestellungen aufwirft. Inwieweit können menschliche Entscheidungen auf Maschinen übertragen werden? Die Ethik darf sich dabei nicht auf Ex-post-Betrachtung beschränken, sondern befindet sich in der Verantwortung den Prozess zu steuern und in die richtigen Bahnen zu lenken. Eine Beschränkung der Ethik auf eine reine Technikkritik ist aus unserer Sicht nicht hilfreich, da sie die Möglichkeiten der Ethik unterschätzt auf Entscheidungsfindungen und Gesetzgebungsprozesse Einfluss zu nehmen. Im Fokus unserer Betrachtungen stehen dabei eine wirtschaftsethische Reflexion der Richtlinien der Ethikkommission des Bundesministeriums für Verkehr und Digitale Infrastruktur, die ein positives Beispiel für die Zusammenarbeit aus Wirtschaft, Ethik und Technik darstellen. Der Umgang mit ethischen Dilemmasituationen, die Frage nach der rechtlichen Haftung und die Abwägung von Verkehrssicherheit mit Datenschutz stehen dabei im Zentrum unserer Auseinandersetzung. Zentrale Fragen sind dabei: Ist es ethisch gerechtfertigt in kritischen Situationen Menschenleben abzuwägen? Können Entscheidungen über Leben und Tod von Programmen übernommen werden oder müssen Entscheidungen dieser Art grundsätzlich von Menschen getroffen werden? Dürfen autonome Fahrzeuge Fahrerprofile auswerten, um die allgemeine Fahrsicherheit zu erhöhen und Unfälle zu vermeiden? Haftet bei Unfällen der Fahrzeughalter oder der Hersteller? Eine Betrachtung dieser Fragen zeigt, dass es sich bei den Ethikrichtlinien des autonomen Fahrens nicht nur um spezifische Fragestellungen in Bezug auf das autonome Fahren handelt, sondern auch um Abwägungsentscheidungen, die sich auf die Digitalisierung als solche beziehen. Das autonome Fahren stellt somit einen Präzedenzfall für die ethische Bewertung mit künstlicher Intelligenz und der Abwägung von Sicherheit und Freiheit dar. Die Auseinandersetzung mit dem technischen Hintergrund und den technischen Möglichkeiten nimmt daher einen wesentlichen Teil unserer Betrachtungen ein. -
Fairness von KI-Algorithmen
Marc-Thorsten Hütt, Claudia SchubertZusammenfassungAn der Schnittstelle von Informatik, Sozialwissenschaften und Rechtswissenschaften formt sich aktuell ein neues Forschungsfeld zur Fairness von Algorithmen. Untersucht wird, durch welche Mechanismen und in welchem Umfang durch Algorithmen getroffene Entscheidungen systematische Verzerrungen (engl. Biases) aufweisen können, besonders im Kontext maschinellen Lernens und künstlicher Intelligenz. Die Dringlichkeit dieses hoch interdisziplinären Forschungsgebietes wird unterstrichen von dem explosiven Anstieg der Verwendungen künstlicher Intelligenz und auf Algorithmen basierender Entscheidungen in allen Bereichen gesellschaftlicher Organisation. Hier umreißen wir kurz den aktuellen Stand dieses Forschungsgebietes und zeigen auf, wie sich daraus eine Notwendigkeit zum institutionellen Kalibrieren und Zertifizieren von Algorithmen argumentieren lässt und wie sich solche Vorgaben in den Rechtsrahmen für KI-Algorithmen einfügen. -
Digitale Ethik und die Künstliche Intelligenz
Sarah SpiekermannZusammenfassungOhne auf Science-Fiction KIs zurückgreifen zu müssen, zeigt dieser Beitrag auf, wie ethisch komplex realistisch zu erwartende KI-Systeme der Zukunft sein werden. Ihre multiplen Einsatzkontexte erfordern eine systematische wertethische Zukunftsanalyse, deren mögliche Methodik in diesem Beitrag vorgestellt wird. Der Beitrag stellt keine weitere von über 80 Wertprinzipienlisten auf, an denen sich KI-Systemingenieure in der Zukunft orientieren könnten, sondern er führt den Leser in die Grundbegriffe der Materialen Wertethik ein, welche ihn zum grundsätzlichen ethischen urteilen und planen entsprechend guter künftiger KI-Systeme befähigen kann. Der Beitrag stellt eine philosophisch fundierte Begriffswelt für die KI-Systemgestaltung vor, in der Kernwerte von Wertqualitäten, Werte von Tugenden und Algorithmen von Wertdispositionen unterschieden sind. -
Verantwortungsbewusste Künstliche Intelligenz im Industriellen Internet der Dinge
Benno Blumoser, Sicco Lehmann-Brauns, Markus Reigl, Sonja ZillnerZusammenfassungDer Beitrag skizziert das Konzept und die Umsetzungsbedingungen von verantwortungsbewusster Künstlicher Intelligenz (KI) im industriellen Internet der Dinge und beschreibt spezifische Merkmale industrieller KI-Anwendungen. Dabei werden auf technische, regulatorische sowie risiko-ethische Aspekte der Anwendung von Künstlicher Intelligenz im industriellen Kontext eingegangen. Zudem wird anhand von drei Beispielfällen die Umsetzung verantwortungsbewusster Künstlicher Intelligenz veranschaulicht. Die vorgestellten Beispielanwendungen machen deutlich, wie stark differenziert die Diskussion über vertrauenswürdige KI und deren Kontextbedingungen zu führen ist. Zudem zeigen sie das große gesellschaftliche und wirtschaftliche Potenzial eines verantwortungsbewussten Einsatzes Künstlicher Intelligenz in der Industrie.
-
- Title
- Philosophisches Handbuch Künstliche Intelligenz
- Editor
-
Klaus Mainzer
- Copyright Year
- 2024
- Publisher
- Springer Fachmedien Wiesbaden
- Electronic ISBN
- 978-3-658-19606-6
- Print ISBN
- 978-3-658-19605-9
- DOI
- https://doi.org/10.1007/978-3-658-19606-6
Accessibility information for this book is coming soon. We're working to make it available as quickly as possible. Thank you for your patience.