Skip to main content
Top

2024 | Book

Philosophisches Handbuch Künstliche Intelligenz

insite
SEARCH

About this book

Das Handbuch schlägt die Brücke von der Grundlagenforschung zum Orientierungswissen. Es greift damit die Bildungs- und Ausbildungsziele der bundesweiten MINT-Initiative auf, die Mathematik (M), Informatik (I), Naturwissenschaft (N) und Technik (T) als fachübergreifendes Schlüsselwissen für technisch-wissenschaftlich gestützte Gesellschaften versteht. Additives Wissen und Ausbildung in getrennten Disziplinen der Mathematik, Informatik, Naturwissenschaft und Technik reichen aber nicht aus. In der Künstlichen Intelligenz wachsen diese Disziplinen mit den Human- und Sozialwissenschaften zusammen.

Zunächst sollen die Grundlagen der KI-Forschung methodisch und begrifflich geklärt werden. Philosophie wird als Grundlagenforschung verstanden, die logisch und methodisch die Prinzipien von Wissenschaft und Technik untersucht. Daher handelt es sich um ein „Philosophisches Handbuch“ (in diesem Fall der KI) und nicht um eine Bindestrich-Philosophie, also ein Handbuch der Philosophie einer Einzelwissenschaft. Denken und Wissen selber und das Selbstverständnis der Menschen verändern sich durch KI grundlegend.

Table of Contents

Frontmatter

Geschichte der Künstlichen Intelligenz

Frontmatter
Anfänge der Künstlichen Intelligenz in Technik- und Philosophiegeschichte

Anfänge von Automatisierung und Vorstellungen künstlicher Menschen finden sich in nahezu allen alten Hochkulturen. Die Grundlagen der dabei verwendeten Technik sind ähnlich. Allerdings weichen die Akzeptanz und Bewertung auf dem Hintergrund verschiedener Weltbilder und religiöser Vorstellung teilweise voneinander ab. Mit der Entstehung der neuzeitlichen Naturwissenschaft und Technik seit der RenaissanceRenaissance werden die Grundlagen der AutomatisierungAutomatisierung von Wirtschaft und Gesellschaft gelegt. Die schrittweise Industrialisierung der Gesellschaft ist mit den Phasen der Automatisierung und dem Einsatz programmgesteuerter Rechnerprogrammgesteuerter Rechner seit Ende des 18. Jahrhunderts verbunden. Auf dieser Grundlage werden die technisch-wissenschaftlichen Konzepte der Künstlichen Intelligenz und des Künstlichen Lebens Künstlichen Lebenaktueller Forschung möglich. Bemerkenswert ist, dass alte Visionen und Fiktionen über künstliche Menschen und künstliches Leben nach wie vor die moderne Entwicklung in allen Kulturen begleiten.

Klaus Mainzer
Leibniz und die künstliche Intelligenz
Lingua characteristica und Calculus ratiocinator

Dieser Artikel untersucht Gottfried Wilhelm Leibniz als Erfinder einiger Konzepte, die der künstlichen Intelligenz zugrunde liegen. Leibniz Ideen einer lingua characteristica und eines calculus ratiocinator werden an ihrem Entstehungsort, der Dissertatio de Arte Combinatoria (1666), untersucht. Zudem wird auf ihr Vorbild, die ars magna von Raymund Lull, hingewiesen und einige wichtige Ausarbeitungen der Leibnizschen Konzepte betrachtet, wie die logische Grammatik von Edmund Husserl, die Algebra der Logik von George Boole und die Begriffsschrift von Gottlob Frege. Darüber hinaus wird eine Interpretation der Leibnischen Konzepte im Lichte der Gödelschen Sätze versucht und die wichtigste Praezisierung des Begriffs eines Algorithmus, die Turingmaschine, analysiert. Schließlich werden Leibniz’ Dualsystem und Leibniz’ Rechenmaschine dargestellt.

Stefania Centrone
Vom Turing-Test zum General Problem Solver. Die Pionierjahre der künstlichen Intelligenz

Als eigenständige Forschungsdisziplin existiert künstliche Intelligenz seit Mitte des 20. Jahrhunderts. Dieser Artikel gibt einen historischen Überblick über die Entstehungszeit rund um die namensgebende Dartmouth Conference im Jahr 1956. Er beschreibt die Rahmenbedingungen und begünstigend Faktoren in den Jahren vor der Konferenz sowie die wesentlichen philosophischen und praktischen Arbeiten, die vor und nach 1956 entstehen, insbesondere von Alan Mathison Turing, Herbert Alexander Simon und Allen Newell.

Christian Pallay

Logische Grundlagen der Künstlichen Intelligenz

Frontmatter
Grundlagen des logischen Schließens

In diesem Artikel wird die moderne Logik in ihren verschiedenen Spielarten und im Zusammenhang mit grundsätzlichen metatheoretischen Resultaten und Fragestellungen dargestellt.

Reinhard Kahle
Logische Grundlagen der klassischen KI

Das Feld der KI umfasst traditionell mehr als nur das vergleichsweise moderne Maschinelle Lernen. Die Idee, dass moderne Computer die Realisierung einer „Künstlichen Intelligenz“ erlauben könnten, reicht mindestens bis zu Turing und seinem berühmten Test zurück. Eine KI muss ihre Umgebung wahrnehmen können, das Wissen repräsentieren und daraus zur Problemlösung Schlussfolgerungen ziehen, sowie letztlich Aktionen ergreifen. Wir geben einen Abriss über klassische automatisierte Problemlösungsverfahren der KI, die seit den 1960er-Jahren aus formalen Logikkalkülen entwickelt wurden. Man spricht daher auch von symbolischer KI, häufig im Gegensatz zum modernen Machine Learning, das vor allem auf neuronalen Netzen und Lernalgorithmen aufbaut (vgl. Artikel „Statistisches und kausales Lernen“). Die klassische symbolische KI ist aber damit keineswegs überholt. Wegen ihres hohen Sicherheitsstandards und ihrer praktischen Effizienz spielen die Methoden der klassischen KI in der Anwendung nach wie vor eine Rolle. In diesem Artikel werden die Grundlagen von symbolisch-logischen Verfahren erläutert, die bei praktischen Problemlösungen angewendet werden können (vgl. Artikel „Symbolische KI für die Produktkonfiguration der Automobilindustrie“). In einem anderen Artikel wird gezeigt, wie sich Methoden der logischen Erfüllbarkeit (satisfiability = SAT) auch auf das moderne Machine Learning mit neuronalen Netzen anwenden lässt (vgl. Artikel „Verifikation und Sicherheit für neuronale Netze und Machine Learning“.

Klaus Mainzer, Wolfgang Küchlin
Symbolische KI für die Produktkonfiguration in der Automobilindustrie

Die Automobilindustrie bietet ihre Fahrzeuge in einer praktisch endlosen Vielzahl von Varianten an. Diese entstehen durch Kombinationen von Ausstattungsoptionen, die sich von Kunden zu einem individuellen Produkt konfigurieren, d. h. zusammenstellen lassen. Die Kombinationsmöglichkeiten unterliegen dabei einer Vielzahl von Konfigurationsregeln, die typischerweise in einer Spielart von Aussagenlogik notiert sind. Hierbei repräsentieren die Symbole die Ausstattungsoptionen, und die Formeln definieren die Möglichkeiten zu ihrer Zusammenstellung in einem Fahrzeug. Insgesamt erhält man eine symbolische Beschreibung des Fahrzeugangebots, die sog. Modellbeschreibung. Aber auch die Auswahl der Teile, aus denen jedes Fahrzeug letztendlich aufgebaut wird, ist durch Formeln der Aussagenlogik beschrieben. Fehler in den Formeln können teure Konsequenzen in der Produktion nach sich ziehen. Aufgrund der astronomischen Varianz ist es praktisch unmöglich, solche Fehler durch erschöpfendes Testen zu finden. Jedoch ermöglichen automatische Beweisverfahren der Symbolischen KI, sog. Erfüllbarkeitsprüfer (SAT-Solver), die effiziente formal-logische Analyse auch sehr großer Regelmengen. Nicht nur die Anwesenheit von Fehlern, sondern auch deren Abwesenheit kann automatisch bewiesen werden, und alle Resultate können nachvollziehbar erklärt werden. Diese Methoden sind mittlerweile im breiten industriellen Einsatz.

Wolfgang Küchlin
Automatisierung der Deduktion

Vor dem Hintergrund der menschlichen Fähigkeit zur Erweiterung unseres Wissens durch logisches Schließen vermittelt dieser Beitrag einen Überblick der Automatischen Deduktion (AD), eines Teilgebiets der Disziplin der Künstlichen Intelligenz (KI). Er erläutert die Grundmerkmale sowohl der Resolutionsmethode als auch der Konnektionsmethode in der AD und umschreibt deren Varianten und Spezialisierungen sowie die aus der AD hervorgegangenen Beweissysteme, deren Leistungsfähigkeit und vielfältige Anwendungen. Der Text vermittelt zudem einen Einblick in die historische Entwicklung der AD sowie eine Vorstellung von ihrer Rolle, auch im Kontext von Lernverfahren, in der künftigen Entwicklung der KI.

Wolfgang Bibel
Von der Beweistheorie zu maschinellen Beweisassistenten

Die moderne Beweistheorie eröffnet die Möglichkeit, interaktive und automatische Beweisassistenten zu entwickeln, die sowohl Beweise in der Mathematik als auch Softwareprogramme in der Informatik überprüfen können. Die zunehmende Komplexität von menschlichem Wissen und menschlicher Technik macht Verifikation zu einem Schlüsselproblem zukünftiger Entwicklungen, insbesondere auf dem Gebiet der Künstlichen Intelligenz. Der Artikel zeigt aber auch, wie tief diese aktuellen Entwicklungsfragen in den Grundlagen von Logik, Mathematik und Philosophie verwurzelt sind.

Klaus Mainzer

Grundlagen von Sprachsystemen

Frontmatter
Von der Sprachphilosophie zu ELIZA

Der nachfolgende Abschnitt beschäftigt sich mit dem Zusammenhang von Sprache und künstlicher Intelligenz. Hierzu wird zunächst die Beziehung von Sprache zu Intelligenz beziehungsweise die Zuschreibung von Intelligenz aufgrund von evozierter maschineller Sprachfähigkeit erörtert. Dieser Zusammenhang ist nicht bloß sprachphilosophisch begründet, sondern wurde und wird auch kultur- und medienhistorisch (im Bild von der sprechenden Maschine) konstatiert und befruchtet von dort aus auch wissenschaftliche Diskurse, weshalb ausgewählte Positionen hieraus vorgestellt werden. Die Logik als formalisierte und formale Sprache und Ausgangspunkt der Entwicklung sowohl von anderen formalen Sprachen (Programmiersprachen) als auch Implementierungen von Turing-Maschinen (Computer) wird als ein zweiter Strang des Zusammenhangs von Sprache und künstlicher Intelligenz verfolgt; den dritten Strang bildet schließlich die Entwicklung eines Konzepts von künstlicher Intelligenz (Turing-Test) und seine Implementierung im Programm ELIZA, dessen Entwicklungs- und Rezeptionsgeschichte dargestellt werden.

Stefan Höltgen
Maschinelle Sprachverarbeitung, Kognition und Sprachphilosophie

Automaten und Maschinen erkennen Sprachen von einfachen symbolischen bis zu natürlichen Sprachen (1). In der Tradition symbolischer KI lässt sich sogar eine semantische Tiefenstruktur entwickeln, die mit kognitiven Strukturen des Gehirns in Zusammenhang gebracht wurde. Bei der maschinellen Sprachübersetzung werden durch das Machine learning entscheidende Durchbrüche der praktischen Anwendung gegenüber symbolischer KI erzielt (2). Offen bleiben allerdings Fragen des Sprachverstehens, die in der Philosophie der natürlichen Sprachen seit Wittgenstein gestellt werden (3).

Klaus Mainzer
Chatbots und Künstliche Intelligenz
Von den Grundlagen zu den Herausforderungen der Anwendungen

Mit Chatbots wie ChatGPT ChatGPTscheint die Künstliche Intelligenz im Alltag der Menschen angekommen zu sein. Die Medien überschlagen sich mit Verheißungen und Schreckensmeldungen. Der Hype seit dem November 2022 zeigt, wie notwendig es ist, die Grundlagen und Grenzen der verwendeten Algorithmen zu verstehen. Dann eröffnet sich mit den heutigen Rechen- und Speichermöglichkeiten zwar ein gewaltiges Potenzial. Andererseits erweisen sich aber auch viele Stellungnahmen von sogenannten Experten als gezielte Übertreibungen, um den Hype und damit das Geschäft zu befeuern. Daher wird zunächst an die Entwicklung von Sprachsystemen seit ihren Anfängen erinnert, um dann die verwendeten Algorithmen zu erklären. Dabei werden Defizite und Empfehlungen abgeleitet, um den zukünftigen Einsatz von KI als sinnvolle Dienstleistung zu gewährleisten.

Klaus Mainzer

Grundlagen von evolutionären Algorithmen

Frontmatter
Grundlagen konnektiver komplexer Systeme

Die Sicht, dass die Vernetzung von Elementen zu Komplexität führt, verweist auf zwei große Forschungsstränge: die Theorie der Selbstorganisation und die Theorie komplexer Netzwerke. Im Folgenden werden beide Forschungsstränge kurz dargestellt und an drei einfachen Beispielen illustriert: die Synchronisation dynamischer Elemente, raumzeitliche Muster, die aus einfachen lokalen Regeln entstehen, und propagierende Wellen als kollektives Verhalten erregbarer Systeme. Es wird gezeigt, wie beide Forschungsstränge unsere Vorstellung wichtiger komplexer Systeme, speziell in der Biologie, geprägt haben. Auf dieser Grundlage wird illustriert, welche Bedeutung diese Theoriegebäude für unser Verständnis von künstlicher Intelligenz haben.

Marc-Thorsten Hütt
Grundlagen zellulärer Automaten

Zelluläre Automaten waren erste Modelle, mit denen John von Neumann und Konrad Zuse die SelbstorganisationSelbstorganisation des Lebens simulierten. Sie wurden zur Grundlage erster Modelle künstlichen LebensKünstlichen Leben. Stephen Wolfram u. a. versuchten, durch ComputerexperimenteComputerexperiment mit komplexen AutomatenAutomat die Vielfalt komplexer Strukturen quasi-empirisch zu beschreiben. Tatsächlich erweisen sich zelluläre Automaten aber mathematisch als komplexe Systemekomplexe Systeme, deren Dynamik in PhasenübergängenPhasenübergänge durch DifferenzialgleichungDifferenzialgleichung bzw. DifferenzengleichungenDifferenzengleichung modelliert werden kann. Damit werden ihre komplexen Muster- und StrukturbildungenMuster- und Strukturbildung analytisch exakt beschreibbar und prognostizierbar wie bei komplexen dynamischen Systemen der PhysikPhysik. Bemerkenswert ist, dass damit auch fundamentale SymmetriegesetzeSymmetriegesetz wie in der Physik deutlich werden, auf die sich die Vielfalt der Muster und Strukturen reduzieren lässt.

Klaus Mainzer
Grundlagen genetischer und evolutionärer Algorithmen

Die komplexen Datenmengen der Genombestimmung erfordern nicht nur schnelle und leistungsfähige Computer. Mit Machine Learning, statistischen und kausalen Lernalgorithmen werden Sequenzanalysen, Struktur- und Funktionsbestimmungen von Proteinen erste möglich. Unter dieser Voraussetzung eröffnen sich neue Perspektiven, um Krankheiten frühzeitig zu erkennen, aber auch virale Pandemien zu bekämpfen. Dabei werden RNA- und DNA-Strukturen als formale Sprachsysteme aufgefasst, die in lernenden Automaten und Maschinen verarbeitet werden. Ebenso ist die komplexe molekulare Evolution des Lebens nur noch durch die Unterstützung von Methoden des Maschine Learning zu entschlüsseln. Bioinformatik und Systembiologie liefern damit die entscheidenden Methoden der theoretischen Biologie. Die philosophische Reflexion ihrer Modelle ist mit den Grundlagen des Machine Learning und der Künstlichen Intelligenz eng verbunden.

Klaus Mainzer

Grundlagen von neuronalen Netzen und Lernalgorithmen

Frontmatter
Grundlagenfragen der Neurocomputation und Neurokognition

Der Artikel behandelt philosophische computationGrundlagenfragen der ComputationComputation und der Kognition in neuronalen Systemen. Im Zentrum steht die computationcomputationale Theorie des Geistes in ihrem Wandel vom symbolistisch-regelbasierten Paradigma der klassischen KI zum konnektionistischen Paradigma auf der Basis neuronaler Netze und neurocomputationcomputationaler Modelle der Kognition. Es werden verschiedene Arten der ComputationComputation (digital, analog, neuronal) und Konzeptionen von ComputationComputation (strukturell-kausal, mechanistisch, semantisch) analysiert. Nach Vorstellung der computationcomputationalen und repräsentationalen Theorie des Geistes werden Theorien der SemantikSemantik und Repräsentation behandelt. Schließlich werden Fragen des SubsymbolismusSubsymbolismus und distribuierter neuronaler Repräsentationen und das Konzept strukturaler Repräsentation diskutiert.

Holger Lyre
Verifikation und Sicherheit für Neuronale Netze und Machine Learning

Im Machine learningMachine learning spielen neuronale NetzeNeuronale Netze nach dem Vorbild des menschlichen Gehirns eine dominante Rolle. Der Durchbruch der KI-Forschung in der Praxis hängt wesentlich mit der Fähigkeit neuronaler Netze zusammen, große Datenmengen (Big Data) z. B. bei der MustererkennungMustererkennung, beim Autonomen Fahrenautonomen Fahren, in der Robotik und in Industrie 4.0 mit effektiven LernalgorithmenLernalgorithmen anzuwenden. Obwohl die technische Zivilisation zunehmend von diesen KI-Algorithmen abhängt, sind sie mit erheblichen Sicherheitsrisiken verbunden. Praktische Anwendungen erfordern Tausende von Neuronen und Synapsen in mehrschichtigen neuronalen Netzen (deep learningDeep learning), die statistisch nur mit endlich vielen Datensätzen von Inputs und Outputs trainiert werden: Man setzt auf die statistischen Erwahrtungswahrscheinlichkeiten von gewünschten Outputs (z. B. Bewegungsverhalten von Robotern, Automobilen und Flugzeugen), die durch geeignete Trainingsdaten erreicht werden sollen. Niemand durchschaut aber bzw. kann im Einzelnen kontrollieren, was in den nicht linearen Wechselwirkungen der Neuronen und Synapsen zwischen Inputs und Outputs abläuft. Daher sind diese neuronalen Netze für Anwender und Entwickler „Schwarzen Kästen“ (Black BoxesBlack Boxes), die grundlegende Fragen der Sicherheit, des Vertrauens in Technik und der Verantwortung aufwerfen. Dieser Artikel erklärt neuartige Verifikationsverfahren, mit denen Sicherheitsstandards von neuronalen Netzen berechnet und garantiert werden können (Xiang et al. 2018). Bemerkenswert ist, dass diese Verifikationsverfahren aus der Logisch-mathematischen Grundlagenforschunglogisch-mathematischen Grundlagenforschung abgeleitet sind. Sie unterstreichen deshalb noch einmal (wie häufig in diesem Handbuch), dass Fragen der Sicherheit, EthikEthik und Verantwortung nicht von der Grundlagenforschung und Erkenntnistheorie getrennt werden können.

Klaus Mainzer
Statistisches und kausales Lernen im Machine Learning

Die praktischen Anwendungen des Machine Learning, die zum Hype der Künstlichen Intelligenz führten, beruhen weitgehend auf Algorithmen des statistischen Lernens. Statistisches Lernen ist aber nur eine Form schwacher künstlicher Intelligenz, die selbst von einfachen Organismen der Evolution realisiert wird. Kausales Lernen ermöglicht erste Schritte zu Algorithmen einer starken künstlichen Intelligenz.

Klaus Mainzer
Neuromorphe Computer und Künstliche Intelligenz

Die klassische KI-Forschung orientiert sich an den Leistungsmöglichkeiten eines programmgesteuerten Computers, der nach der Churchschen These im Prinzip mit einer Turingmaschine äquivalent ist. Nach dem Mooreschen Gesetz wurden damit bis heute gigantische Rechen- und Speicherkapazitäten erreicht. Aber die Leistungen von Supercomputern haben einen Preis, dem die Energie einer Kleinstadt entsprechen kann. Umso beeindruckender sind menschliche Gehirne, die Leistungen des KI-Systems WATSON (z. B. eine natürliche Sprache sprechen und verstehen) mit dem Energieverbrauch einer Glühlampe realisieren. Spätestens dann ist man von der Effizienz neuromorpher Systeme wie biologische Gehirne beeindruckt, die in der Evolution entstanden sind. Der folgende Artikel zeigt zunächst, dass biologische Gehirne sich als komplexe dynamische Systeme auffassen lassen. Das Modell komplexer neuronaler Netze lässt sich aber nicht nur wie bisher im Machine Learning auf digitalen Computern simulieren, sondern auch technisch als Hardware mit neuartigen digitalen und analogen Einheiten wie einem Memristor realisieren (Mainzer 2019, Kap. 10.1; Mainzer 2024). Trainingsalgorithmen des Machine Learning können für diese neuartige Rechnerarchitektur (im Unterschied zur von Neumann-Architektur) eingerichtet werden und kommen damit der tatsächlichen Arbeitsweise natürlicher Intelligenz mit biologischen Gehirnen sehr nahe.

Klaus Mainzer
Superintelligenz durch Quantencomputer?

Quantencomputer nutzen Quanteneffekte wie Superpositionen und Verschränkungen von Quantenzuständen, die in den philosophischen Grundlagen der Quantenwelt tief verwurzelt sind. Technisch führt der Quantencomputer zu exponentieller Steigerung der Rechenkapazität, mit der praktische Grenzen der Problemlösung überwunden werden. Unberührt bleiben prinzipielle logisch-mathematische Grenzen der Berechenbarkeit. Es eröffnen sich zudem neue Perspektiven der Quantenkommunikation bis zu einem Quanteninternet, das die Möglichkeiten cyberphysikalischer Systeme und damit den gesellschaftlichen Impact verändert. Am Ende stellt sich die Frage, wie Quantengehirne auf der Grundlage neuronaler Quantennetze arbeiten.

Klaus Mainzer

Grundlagen kognitiver und sozialer Roboter

Frontmatter
Künstliche Intelligenz mit Körper

Moderne Roboter und andere komplexe Maschinen sind nicht nur mit immer ausgeklügelteren intelligenten Algorithmen ausgestattet, sie besitzen vor allem einen mit zunehmend neuartigen Fähigkeiten ausgestatteten Körper, der es ihnen grundsätzlich ermöglicht sich in der physischen Welt zu bewegen und mit dieser zu interagieren. Diese sich rasant entwickelnde Zukunftstechnologie der verkörperten Künstlichen Intelligenz (KI), also der KI mit Körper, besitzt mittel- und langfristig enormes Potenzial zur Lösung großer gesellschaftlicher Herausforderungen, wie der einer zunehmend älter werdenden Gesellschaft oder dem Klimawandel, beizutragen. Sie hält Lösungen zur Abschaffung menschenunwürdiger Arbeit in der Produktion bereit, ermöglicht neue Mobilitätskonzepte und fördert die personalisierte Medizin. Gleichzeitig stellt verkörperte KI die Forschung aber auch vor ganz besondere Herausforderungen. Künstliche Intelligenz mit und ohne Körper funktionieren nämlich grundlegend verschieden, wobei die großen Fortschritte künstlicher Intelligenz ohne Körper nun auch die ungleich höheren Anforderungen derer mit Körper befruchten. Diesen neuen Weg an der Schnittstelle zwischen Künstlicher Intelligenz, Robotik und Perzeption beschreitet die Munich School of Robotics and Machine Intelligence als neues Integratives Forschungszentrum der TUM.

Sami Haddadin
Kognitive Systeme und Neurorobotik

In diesem Kapitel stellen wir die wissenschaftliche Disziplin „Neuroingenieurwesen“ vor, welche aus der synergetischen Verbindung von Neurowissenschaft und Ingenieurwissenschaften besteht. Wir zeigen auf, dass diese Verbindung bidirektional ist, da einerseits ingenieurwissenschaftliche Methoden den wissenschaftlichen Fortschritt in den Neurowissenschaften beflügeln und andererseits neurowissenschaftliche Erkenntnisse es Ingenieuren ermöglichen, bessere technische Systeme zu entwickeln.Diese Wechselseitigkeit veranschaulichen wir anhand zweier Unterbereiche des Neuroingenieurswesen – neuro-inspirierte kognitive Systeme und bidirektionale neuronale Schnittstellen. Neuro-inspirierte kognitive Systeme sind diejenige Art von KI, bei der es in besonderem Maße auf das Zusammenspiel verschiedener kognitiver Fähigkeiten (Lernen, Vorhersagen, Schlüsse ziehen, Wahrnehmen, Planen usw.) eines Systems ankommt, damit komplexe Ziele ressourcen-effizient erreicht werden können. Für die energie-effiziente Implementation von kognitiven Funktionen erweist sich die neuronale Robotik als ein vielversprechendes Forschungsfeld, wie am Beispiel einer neuro-inspirierten Roboterhaut dargestellt wird.Während Forschung zu künstlichen kognitiven Systemen die Autonomie von Maschinen zum Ziel hat, geht es beim Forschungsfeld der bidirektionalen neuronalen Schnittstellen um die Verbindung von menschlicher und maschineller Autonomie. Beispiele dafür sind die Neuroprothetik, Brain-Computer Interfaces und Neurorehabilitation.

Nicolas Berberich, Gordon Cheng
Embodiment and Humanoid Robotics

The concept of embodimentSacheintragembodiment (i.e. of a bodily basis) of human cognitionSacheintragcognition has a long history in philosophy and nowadays develops a growing impact on humanoid roboticsSacheintraghumanoid robotics. There, inspirations often aim at mimicking human skills and achieving friendly and fruitful human-robot interactionSacheintraghuman-robot interaction (HRI). This article considers as an example the embedding of the sense of self-agencySacheintragsense of self-agency (SSA) in very basic human sensorimotor controlSacheintragsensorimotor control mechanisms and, after its modeling, its ‘re-embodiment’ into human-inspired robots. From this it is concluded that (1) robotics profits with respect to robot safety, control robustness, versatility, energy costs, and HRI from implementing human sensorimotor control concepts, and (2) vice versa, concepts of human cognitive and physiological functions may profit when confronted with ‘real world’ tests in robots.

Thomas Mergner, Michael Funk, Vittorio Lippi
TOM und KI

Naturgemäß hängen LebewesenTom Sawyer an ihrem Leben und an ihrem Wesen. Dem Menschen (homo sapiens) scheint im Wesentlichen das weise Sozialverhalten überlebenswichtig und er sucht sich selbst in anderen besser zu verstehen. Theory of Mind (TOM) ist dieser Versuch sich in die Perspektiven eines anderen Subjekts hineinzuversetzen. Aus diesem tieferen Verständnis entstehen Mitgefühl, Rücksicht, Respekt, aber auch Scham, Verachtung und Hass u. v. a.. TOM beschäftigt ständig einen großen Teil der Zentralnervensystems sozialer Lebewesen. Nach der kindlich-philosophischen Entwicklungsphase folgen Menschen aus rationellen Gründen ihrem emotionalen Grundbedürfnis und gehen ganz selbstverständlich davon aus, dass andere Personen im Wesentlichen ihrem Selbst innerlich ähnlich sind, entsprechend empfinden, denken und sich verhalten. Dies bleibt letztlich eine unbeweisbare Annahme, eine tröstliche Illusion. Rechenmaschinen benötigen Strom und kompetente Wartung, nicht aber Nestwärme. Komplexes Verhalten lässt sich auch ohne fragwürdige Intuitionen allein mithilfe hoher Rechenleistung vorhersagen.

Hans Förstl

Grundlagen intelligenter Infrastrukturen

Frontmatter
Modellierung und Simulation in der Künstlichen Intelligenz

In diesem Beitrag werden die wesentlichen Unterschiede zwischen den verschiedenen Arten der Bezugnahme von Modellen und Simulationen in der Künstliche-Intelligenz-Forschung (KI) herausgearbeitet. Zu diesem Zweck wird eine Taxonomie von Ansätzen in der KI entwickelt, basierend auf den Unterscheidungen zum einen zwischen formalen und materiellen Modellen und zum anderen zwischen theoriegeleiteten und vortheoretischen Modellen in den Wissenschaften. Diese Unterscheidungen bieten Aufschluss zu Fragestellungen sowohl in der Wissenschaftsphilosophie als auch in der Philosophie der KI: Wie beziehen sich Simulationen auf Sachverhalte? Was sind die Ziele, Zwecke und Bedingungen der Bezugnahme? Welchen Einfluss haben Antworten auf diese Fragen auf die unterschiedlichen Forschungsprogramme der KI?

Hajo Greif
Erklärbarkeit und Transparenz im Machine Learning

ErklärbarkeitTransparenzKI Systeme haben längst ihren Einzug in den Alltag moderner Gesellschaften gefunden. Sie treffen autonome Entscheidungen, beeinflussen den Alltag von Menschen und können mit rechtlichen Bestimmungen in Konflikt stehen. Die mangelnde TransparenzTransparenz von KI Systemen wird zunehmend zu einem Problem und ist angesichts der technischen Möglichkeiten zu einem gewissen Grad auch eine bequeme Ausrede derer, die die Systeme entwickeln oder einsetzen. Der vorliegende Beitrag entmystifiziert KI und diskutiert die Rolle von Transparenz und ErklärbarkeitErklärbarkeit von KI Systemen anhand konkreter Beispiele.

Bernhard Waltl
Von Cyberphysikalischen Systemen zu intelligenten Infrastrukturen

In Cyberphysikalische Systemen (CPS) erfassen Sensoren physikalische Daten. CPS-Anwendungen sammeln Informationen, verdichten sie und werten sie aus. Das Ziel ist die Prozessoptimierung, wobei Aktuatoren auf physikalische Vorgänge einwirken. Hierbei wird der Automatisierungsgrad erhöht und der Kontrollfluss verändert. CPS lassen sich als Smart Home oder Smart Factory in Alltags- und Arbeitsumgebungen einbetten. Durch die Vernetzung intelligenter Systemelemente können intelligente Infrastrukturen entstehen, die sich durch Adaption und Selbstorganisation auszeichnen, wobei Multiagentensysteme zur dezentralen Kontrolle genutzt werden können. In der Vision der Smart City kommt diese Idee zum Tragen: Eine Smart City ist ein urbaner Raum, dessen Elemente mit Sensoren und Aktuatoren ausgestattet sind, um die Effizienz der Stadtinfrastruktur zu verbessern und bürgernahe Dienstleistungen anzubieten. Schon heute ermöglichen Big Data Analyseverfahren Efffizienzverbesserungen und die Blockchain-Technologie steht für das Versprechen, Interaktionen ohne Intermediäre zu ermöglichen. Mikrodirektiven werden die Freiheitsgrade der die Infrastruktur nutzenden Menschen (und Maschinen) einschränken können.

Sabine Thürmel
Mensch, Künstliche Intelligenz und Kollaborativer Roboter (CoBots) – sind drei einer zu viel? Ein Blick in die Arbeitswelt von morgen

Was wäre, wenn Roboter nicht den Menschen ersetzen, sondern neben ihm arbeiten würden? Genau diese mögliche Realität, in der Cobots (Kollaborative Roboter) und künstliche Intelligenz (KI) miteinander verknüpft sind, wird in diesem Artikel ausgearbeitet. Eine Demokratisierung von KI und Cobots könnte für erhebliche und kontinuierliche Wohlfahrt sorgen, und so z. B. den aktuell prognostizierten, nachteiligen demografischen Entwicklungen entgegentreten. Daneben könnte es der Mittelschicht in einer Digitalen Ökonomie zu neuer Blüte verhelfen. Cobots übernehmen in diesem Modell die Arbeit im Sinne von Hannah Arendt. Das würde den Menschen in die Lage versetzen das kreative Schaffen in den Vordergrund zu stellen, sprich hauptsächlich die unternehmerischen und schöpferischen Aspekte unseres professionellen Engagements wahrzunehmen. Wichtig ist dabei, die ethischen Aspekte beim Einsatz von KI und Cobots speziell im Kontext auf die Zukunft menschlicher Arbeit zu analysieren und zu gestalten. Dabei stehen Sicherheitsaspekte und die faire Behandlung der Mitarbeiter im Vordergrund.

Wieland Holfelder, Max Senges

Ethische und rechtliche Herausforderungen der Künstlichen Intelligenz

Frontmatter
Künstliche Intelligenz – ethische und rechtliche Herausforderungen

Die Komplexität und Selbstständigkeit von KI sowie die Zunahme der Lebensbereiche, in der sie Entscheidungen unterstützen oder gar selbst treffen soll, stellen die Ethik und das Recht vor neue HerausforderungenHerausforderungen. Gerade weil die Entscheidungen lernender Systeme ex ante kaum vorhersehbar und ex post kaum beweisbar sind, birgt ihr Einsatz besondere, bisher unbekannte Risiken. Dies führt zu Problemen bei der Kosten-Nutzen-Analyse der Technologie, bei der Zulassung – insbesondere weil die Maschinen sich ja auch während der Nutzung noch weiterentwickeln sollen – aber auch bei etwa der Aufklärung von Patienten, die mit diesen Maschinen behandelt werden. Schließlich ergeben sich auch neue Risiken und Gefahren, etwa die einer nicht sofort erkennbaren Diskriminierung durch eine scheinbar neutrale Maschine. Auf diese Entwicklungen muss die Gesellschaft aktuell dringend Antworten finden, insbesondere ist zu diskutieren, in welchen Lebensbereichen Entscheidungen überhaupt auf Maschinen übertragen werden dürfen, welche Korrelationen und Kategorisierungen akzeptabel und welche diskriminierend sind, ob Entscheidungen zwangsläufig auch kausal begründet werden müssen, etc. Zudem stellt sich die Frage, wem die (Teil-)Entscheidungen der Maschine normativ zuzurechnen sind – problematisch kann es jedenfalls sein, insofern primär auf den die Entscheidung absegnenden Menschen, den „human in the loophuman in the loop“, abzustellen (Sharkey 2016, S. 23–38; Zanzotto 2018. S. 247–248). Denn nicht selten ist der letztentscheidende Mensch hiermit überfordert – und die Schwierigkeit, sich gegen einen maschinellen Vorschlag zu entscheiden, von dem man weiß, dass er auf sehr vielen Informationen und sehr schneller Rechenleistung beruht, ist auch normativ nachvollziehbar. Insofern ist nicht verwunderlich, dass sich gerade das Konzept der Verantwortung sowohl auf moralischer als auch auf rechtlicher Ebene durch die neuen Entwicklungen fundamental ändert.

Susanne Beck
Ethische und rechtliche Herausforderungen des autonomen Fahrens

In den letzten Jahrzehnten haben sich die technischen Möglichkeiten im Bereich des autonomen Fahrens so stark erweitert, dass in naher Zukunft mit einer Einführung vollkommen autonomer Fahrzeuge zu rechnen ist. Aufgrund der steigenden Präsenz autonomer und vernetzter Fahrsysteme im Straßenverkehr, was sich nicht nur den Nutzerkreis sondern auch auf die Allgemeinheit auswirken wird, ist eine Auseinandersetzung mit den ethischen und rechtlichen Herausforderungen dieser Technologie dringend erforderlich. Der ethisch relevante Unterschied im Gegensatz zum herkömmlichen Fahren ist dabei hauptsächlich die Übernahme menschlicher Entscheidungen durch Computerprogramme, was grundsätzlich neuartige Fragestellungen aufwirft. Inwieweit können menschliche Entscheidungen auf Maschinen übertragen werden? Die Ethik darf sich dabei nicht auf Ex-post-Betrachtung beschränken, sondern befindet sich in der Verantwortung den Prozess zu steuern und in die richtigen Bahnen zu lenken. Eine Beschränkung der Ethik auf eine reine Technikkritik ist aus unserer Sicht nicht hilfreich, da sie die Möglichkeiten der Ethik unterschätzt auf Entscheidungsfindungen und Gesetzgebungsprozesse Einfluss zu nehmen. Im Fokus unserer Betrachtungen stehen dabei eine wirtschaftsethische Reflexion der Richtlinien der Ethikkommission des Bundesministeriums für Verkehr und Digitale Infrastruktur, die ein positives Beispiel für die Zusammenarbeit aus Wirtschaft, Ethik und Technik darstellen. Der Umgang mit ethischen Dilemmasituationen, die Frage nach der rechtlichen Haftung und die Abwägung von Verkehrssicherheit mit Datenschutz stehen dabei im Zentrum unserer Auseinandersetzung. Zentrale Fragen sind dabei: Ist es ethisch gerechtfertigt in kritischen Situationen Menschenleben abzuwägen? Können Entscheidungen über Leben und Tod von Programmen übernommen werden oder müssen Entscheidungen dieser Art grundsätzlich von Menschen getroffen werden? Dürfen autonome Fahrzeuge Fahrerprofile auswerten, um die allgemeine Fahrsicherheit zu erhöhen und Unfälle zu vermeiden? Haftet bei Unfällen der Fahrzeughalter oder der Hersteller? Eine Betrachtung dieser Fragen zeigt, dass es sich bei den Ethikrichtlinien des autonomen Fahrens nicht nur um spezifische Fragestellungen in Bezug auf das autonome Fahren handelt, sondern auch um Abwägungsentscheidungen, die sich auf die Digitalisierung als solche beziehen. Das autonome Fahren stellt somit einen Präzedenzfall für die ethische Bewertung mit künstlicher Intelligenz und der Abwägung von Sicherheit und Freiheit dar. Die Auseinandersetzung mit dem technischen Hintergrund und den technischen Möglichkeiten nimmt daher einen wesentlichen Teil unserer Betrachtungen ein.

Christoph Lütge, Alexander Kriebitz, Max Raphael
Fairness von KI-Algorithmen

An der Schnittstelle von Informatik, Sozialwissenschaften und Rechtswissenschaften formt sich aktuell ein neues Forschungsfeld zur Fairness von Algorithmen. Untersucht wird, durch welche Mechanismen und in welchem Umfang durch Algorithmen getroffene Entscheidungen systematische Verzerrungen (engl. Biases) aufweisen können, besonders im Kontext maschinellen Lernens und künstlicher Intelligenz. Die Dringlichkeit dieses hoch interdisziplinären Forschungsgebietes wird unterstrichen von dem explosiven Anstieg der Verwendungen künstlicher Intelligenz und auf Algorithmen basierender Entscheidungen in allen Bereichen gesellschaftlicher Organisation. Hier umreißen wir kurz den aktuellen Stand dieses Forschungsgebietes und zeigen auf, wie sich daraus eine Notwendigkeit zum institutionellen Kalibrieren und Zertifizieren von Algorithmen argumentieren lässt und wie sich solche Vorgaben in den Rechtsrahmen für KI-Algorithmen einfügen.

Marc-Thorsten Hütt, Claudia Schubert
Digitale Ethik und die Künstliche Intelligenz

Ohne auf Science-Fiction KIs zurückgreifen zu müssen, zeigt dieser Beitrag auf, wie ethisch komplex realistisch zu erwartende KI-Systeme der Zukunft sein werden. Ihre multiplen Einsatzkontexte erfordern eine systematische wertethische Zukunftsanalyse, deren mögliche Methodik in diesem Beitrag vorgestellt wird. Der Beitrag stellt keine weitere von über 80 Wertprinzipienlisten auf, an denen sich KI-Systemingenieure in der Zukunft orientieren könnten, sondern er führt den Leser in die Grundbegriffe der Materialen Wertethik ein, welche ihn zum grundsätzlichen ethischen urteilen und planen entsprechend guter künftiger KI-Systeme befähigen kann. Der Beitrag stellt eine philosophisch fundierte Begriffswelt für die KI-Systemgestaltung vor, in der Kernwerte von Wertqualitäten, Werte von Tugenden und Algorithmen von Wertdispositionen unterschieden sind.

Sarah Spiekermann
Verantwortungsbewusste Künstliche Intelligenz im Industriellen Internet der Dinge

Der Beitrag skizziert das Konzept und die Umsetzungsbedingungen von verantwortungsbewusster Künstlicher Intelligenz (KI) im industriellen Internet der Dinge und beschreibt spezifische Merkmale industrieller KI-Anwendungen. Dabei werden auf technische, regulatorische sowie risiko-ethische Aspekte der Anwendung von Künstlicher Intelligenz im industriellen Kontext eingegangen. Zudem wird anhand von drei Beispielfällen die Umsetzung verantwortungsbewusster Künstlicher Intelligenz veranschaulicht. Die vorgestellten Beispielanwendungen machen deutlich, wie stark differenziert die Diskussion über vertrauenswürdige KI und deren Kontextbedingungen zu führen ist. Zudem zeigen sie das große gesellschaftliche und wirtschaftliche Potenzial eines verantwortungsbewussten Einsatzes Künstlicher Intelligenz in der Industrie.

Benno Blumoser, Sicco Lehmann-Brauns, Markus Reigl, Sonja Zillner

Von der Technikphilosophie zur Technikgestaltung

Frontmatter
Positionen der Technikphilosophie

Es werden in diesem Beitrag mögliche Positionen der Technikphilosophie zur KI dargestellt, die von unterschiedlichen Deutungen von Technik ausgehen. Dabei wird besonders von der Wissenschaftstheorie der Technikwissenschaften ausgegangen, da KI als der Versuch einer general purpose technology angesehen werden kann. Technikphilosophie als Teildisziplin der Philosophie stellt folgerichtig die leitenden Grundfragen der Philosophie nach Wissen, Hoffnungen, Handlungen und nach dem Menschen auch an die Künstliche Intelligenz als einer sowohl bereits bestehenden als auch prospektiven Technologie. Hier geht es letztlich um die anthropologische Differenz zwischen Mensch und Maschine, an der sich auch künftig philosophisches Nachdenken abarbeiten muss.

Klaus Kornwachs
Zum Unterschied zwischen künstlicher und menschlicher Intelligenz und den ethischen Implikationen der Verwechselung

Dieser Beitrag beschäftigt sich mit der Frage, worin sich die menschliche Intelligenz von der künstlichen Intelligenz unterscheidet und ob es zulässig sein sollte, die KI als „menschenähnlich“ zu bezeichnen. Anhand von fünf Thesen wird gezeigt, dass ein in der Sprache weit verbreiteter Vergleich von menschlicher und künstlicher Intelligenz problematisch ist. KI-Systeme verfügen nämlich über wenig menschenähnliche Informationen; dafür aber über maschinenspezifische Information, die wir Menschen nicht haben. KI-Systeme können nicht menschenähnlich denken, da sie keinen Zugang zu Noemata haben. KI-Systeme können keine menschenähnlichen Motivationsstrukturen aufbauen, da sie nicht wahrnehmen können, was von Wert ist. Und schließlich wird ihre Autonomie nie sozial eingebettet sein, was diese fundamental von der menschlichen Autonomie und deren natürlichen Grenzen unterscheidet. Das Fazit dieses Artikels ist, dass KI-Systeme zwar vernünftig sein können, aber nicht intelligent. Und der Grund dafür ist letztlich, dass sie nicht die Fähigkeit haben, sich mit der Welt auf intelligente Weise im menschlichen Sinne zu verbinden; sie können mit der Welt „nichts anfangen“.

Sarah Spiekermann
Künstliche Intelligenz und Wissenschaftskommunikation

Wie lassen sich der Einsatz von KI und ihre Entwicklung in einem umfassenden Prozess der Abstimmung von Wissensansprüchen, Interessen, Werten und Präferenzen unter Einbeziehung aller interessierten gesellschaftlichen Gruppen nach Maßgabe der wissenschaftlichen und technischen Möglichkeiten gestalten? Die Wissenschaftskommunikation bietet hier multidisziplinäre Grundlagen, vielfältige Formate und benennt Bedingungen der Akzeptanz.

Marc-Denis Weitze
Technikgestaltung: KI als Dienstleistung

Technik wird üblicherweise auf menschlich gesetzte Ziele und Zwecke hin entwickelt. Entsprechend geht es in der weiteren Entwicklung der KI darum, sie als Dienstleistung für Zwecksetzungen auszugestalten, etwa in den Bereichen Gesundheit, Mobilität oder industrielle Produktion. Freilich zeigen Erfahrungen aus der Technikgeschichte, insbesondere der jüngeren Vergangenheit, dass Technikgestaltung unter Bedingungen und Begrenzungen steht, dass sie voraussetzungsreich ist und dass auch eine gelingende Technikgestaltung nicht unbedingt vor dem Eintreten nicht intendierter Folgen bewahrt. In der KI stellen sich diese bekannten Herausforderungen in einer besonderen Akzentuierung, da Komplexität, Selbstorganisationsfähigkeit und Lernfähigkeit von KI-Systemen einerseits die Prognostizierbarkeit des Erreichens von gesetzten Zwecken und des Vermeidens von nicht intendierten Folgen weiter reduzieren, andererseits sogar einen digitalen Determinismus bis hin zur Singularität als zumindest denkmöglich erscheinen lassen. Hierauf müssen gestaltungsorientierte Ansätze wie Technikfolgenabschätzung (TA) und Value Sensitive Design (VSD) gezielt reagieren. In diesem Kapitel werden zunächst einige Beispiele für Gestaltungsaufgaben im Rahmen der KI diskutiert, um sodann Technikgestaltung als normatives Programm einzuführen und von verbreiteten technikdeterministischen Annahmen abzugrenzen. Der doppelte Zukunftsbezug von Technik dient als konzeptioneller Rahmen, um die Herausforderungen der Umsetzung von Technikgestaltung in der KI zu präzisieren. Auf dieser Basis werden schließlich konkrete Ansätze der Technikgestaltung eingeführt und auf KI bezogen.

Armin Grunwald
Einführung

Diese Einführung erläutert das Profil eines „Philosophischen Handbuchs der Künstlichen Intelligenz“. Es geht zunächst um Grundlagenforschung, in der die logisch-erkenntnistheoretischen und methodischen Grundlagen der KI erklärt werden. Das jeweilige Innovationspotenzial und die jeweiligen Grenzen der KI-Verfahren gilt es auszuloten und zu bestimmen. Neben der methodischen und kritischen Klärung der Grundbegriffe und Verfahren geht es schließich um Orientierungswissen für die Einzelwissenschaften und Gesellschaft. KI-Forschung soll als verantwortbare Dienstleistung für uns Menschen gestaltet werden.

Klaus Mainzer
Backmatter
Metadata
Title
Philosophisches Handbuch Künstliche Intelligenz
Editor
Klaus Mainzer
Copyright Year
2024
Electronic ISBN
978-3-658-19606-6
Print ISBN
978-3-658-19605-9
DOI
https://doi.org/10.1007/978-3-658-19606-6

Premium Partners