Skip to main content
Top

Philosophisches Handbuch Künstliche Intelligenz

  • 2024
  • Book

About this book

Das Handbuch schlägt die Brücke von der Grundlagenforschung zum Orientierungswissen. Es greift damit die Bildungs- und Ausbildungsziele der bundesweiten MINT-Initiative auf, die Mathematik (M), Informatik (I), Naturwissenschaft (N) und Technik (T) als fachübergreifendes Schlüsselwissen für technisch-wissenschaftlich gestützte Gesellschaften versteht. Additives Wissen und Ausbildung in getrennten Disziplinen der Mathematik, Informatik, Naturwissenschaft und Technik reichen aber nicht aus. In der Künstlichen Intelligenz wachsen diese Disziplinen mit den Human- und Sozialwissenschaften zusammen.

Zunächst sollen die Grundlagen der KI-Forschung methodisch und begrifflich geklärt werden. Philosophie wird als Grundlagenforschung verstanden, die logisch und methodisch die Prinzipien von Wissenschaft und Technik untersucht. Daher handelt es sich um ein „Philosophisches Handbuch“ (in diesem Fall der KI) und nicht um eine Bindestrich-Philosophie, also ein Handbuch der Philosophie einer Einzelwissenschaft. Denken und Wissen selber und das Selbstverständnis der Menschen verändern sich durch KI grundlegend.

Table of Contents

Next
  • current Page 1
  • 2
  • 3
  1. Frontmatter

  2. Einführung

    Klaus Mainzer
    Zusammenfassung
    Diese Einführung erläutert das Profil eines „Philosophischen Handbuchs der Künstlichen Intelligenz“. Es geht zunächst um Grundlagenforschung, in der die logisch-erkenntnistheoretischen und methodischen Grundlagen der KI erklärt werden. Das jeweilige Innovationspotenzial und die jeweiligen Grenzen der KI-Verfahren gilt es auszuloten und zu bestimmen. Neben der methodischen und kritischen Klärung der Grundbegriffe und Verfahren geht es schließich um Orientierungswissen für die Einzelwissenschaften und Gesellschaft. KI-Forschung soll als verantwortbare Dienstleistung für uns Menschen gestaltet werden.
  3. Geschichte der Künstlichen Intelligenz

    1. Frontmatter

    2. Anfänge der Künstlichen Intelligenz in Technik- und Philosophiegeschichte

      Klaus Mainzer
      Zusammenfassung
      Anfänge von Automatisierung und Vorstellungen künstlicher Menschen finden sich in nahezu allen alten Hochkulturen. Die Grundlagen der dabei verwendeten Technik sind ähnlich. Allerdings weichen die Akzeptanz und Bewertung auf dem Hintergrund verschiedener Weltbilder und religiöser Vorstellung teilweise voneinander ab. Mit der Entstehung der neuzeitlichen Naturwissenschaft und Technik seit der Renaissance werden die Grundlagen der Automatisierung von Wirtschaft und Gesellschaft gelegt. Die schrittweise Industrialisierung der Gesellschaft ist mit den Phasen der Automatisierung und dem Einsatz programmgesteuerter Rechner seit Ende des 18. Jahrhunderts verbunden. Auf dieser Grundlage werden die technisch-wissenschaftlichen Konzepte der Künstlichen Intelligenz und des Künstlichen Lebens aktueller Forschung möglich. Bemerkenswert ist, dass alte Visionen und Fiktionen über künstliche Menschen und künstliches Leben nach wie vor die moderne Entwicklung in allen Kulturen begleiten.
    3. Leibniz und die künstliche Intelligenz

      Lingua characteristica und Calculus ratiocinator Stefania Centrone
      Zusammenfassung
      Dieser Artikel untersucht Gottfried Wilhelm Leibniz als Erfinder einiger Konzepte, die der künstlichen Intelligenz zugrunde liegen. Leibniz Ideen einer lingua characteristica und eines calculus ratiocinator werden an ihrem Entstehungsort, der Dissertatio de Arte Combinatoria (1666), untersucht. Zudem wird auf ihr Vorbild, die ars magna von Raymund Lull, hingewiesen und einige wichtige Ausarbeitungen der Leibnizschen Konzepte betrachtet, wie die logische Grammatik von Edmund Husserl, die Algebra der Logik von George Boole und die Begriffsschrift von Gottlob Frege. Darüber hinaus wird eine Interpretation der Leibnischen Konzepte im Lichte der Gödelschen Sätze versucht und die wichtigste Praezisierung des Begriffs eines Algorithmus, die Turingmaschine, analysiert. Schließlich werden Leibniz’ Dualsystem und Leibniz’ Rechenmaschine dargestellt.
    4. Vom Turing-Test zum General Problem Solver. Die Pionierjahre der künstlichen Intelligenz

      Christian Pallay
      Zusammenfassung
      Als eigenständige Forschungsdisziplin existiert künstliche Intelligenz seit Mitte des 20. Jahrhunderts. Dieser Artikel gibt einen historischen Überblick über die Entstehungszeit rund um die namensgebende Dartmouth Conference im Jahr 1956. Er beschreibt die Rahmenbedingungen und begünstigend Faktoren in den Jahren vor der Konferenz sowie die wesentlichen philosophischen und praktischen Arbeiten, die vor und nach 1956 entstehen, insbesondere von Alan Mathison Turing, Herbert Alexander Simon und Allen Newell.
  4. Logische Grundlagen der Künstlichen Intelligenz

    1. Frontmatter

    2. Grundlagen des logischen Schließens

      Reinhard Kahle
      Zusammenfassung
      In diesem Artikel wird die moderne Logik in ihren verschiedenen Spielarten und im Zusammenhang mit grundsätzlichen metatheoretischen Resultaten und Fragestellungen dargestellt.
    3. Logische Grundlagen der klassischen KI

      Klaus Mainzer, Wolfgang Küchlin
      Zusammenfassung
      Das Feld der KI umfasst traditionell mehr als nur das vergleichsweise moderne Maschinelle Lernen. Die Idee, dass moderne Computer die Realisierung einer „Künstlichen Intelligenz“ erlauben könnten, reicht mindestens bis zu Turing und seinem berühmten Test zurück. Eine KI muss ihre Umgebung wahrnehmen können, das Wissen repräsentieren und daraus zur Problemlösung Schlussfolgerungen ziehen, sowie letztlich Aktionen ergreifen. Wir geben einen Abriss über klassische automatisierte Problemlösungsverfahren der KI, die seit den 1960er-Jahren aus formalen Logikkalkülen entwickelt wurden. Man spricht daher auch von symbolischer KI, häufig im Gegensatz zum modernen Machine Learning, das vor allem auf neuronalen Netzen und Lernalgorithmen aufbaut (vgl. Artikel „Statistisches und kausales Lernen“). Die klassische symbolische KI ist aber damit keineswegs überholt. Wegen ihres hohen Sicherheitsstandards und ihrer praktischen Effizienz spielen die Methoden der klassischen KI in der Anwendung nach wie vor eine Rolle. In diesem Artikel werden die Grundlagen von symbolisch-logischen Verfahren erläutert, die bei praktischen Problemlösungen angewendet werden können (vgl. Artikel „Symbolische KI für die Produktkonfiguration der Automobilindustrie“). In einem anderen Artikel wird gezeigt, wie sich Methoden der logischen Erfüllbarkeit (satisfiability = SAT) auch auf das moderne Machine Learning mit neuronalen Netzen anwenden lässt (vgl. Artikel „Verifikation und Sicherheit für neuronale Netze und Machine Learning“.
    4. Symbolische KI für die Produktkonfiguration in der Automobilindustrie

      Wolfgang Küchlin
      Zusammenfassung
      Die Automobilindustrie bietet ihre Fahrzeuge in einer praktisch endlosen Vielzahl von Varianten an. Diese entstehen durch Kombinationen von Ausstattungsoptionen, die sich von Kunden zu einem individuellen Produkt konfigurieren, d. h. zusammenstellen lassen. Die Kombinationsmöglichkeiten unterliegen dabei einer Vielzahl von Konfigurationsregeln, die typischerweise in einer Spielart von Aussagenlogik notiert sind. Hierbei repräsentieren die Symbole die Ausstattungsoptionen, und die Formeln definieren die Möglichkeiten zu ihrer Zusammenstellung in einem Fahrzeug. Insgesamt erhält man eine symbolische Beschreibung des Fahrzeugangebots, die sog. Modellbeschreibung. Aber auch die Auswahl der Teile, aus denen jedes Fahrzeug letztendlich aufgebaut wird, ist durch Formeln der Aussagenlogik beschrieben. Fehler in den Formeln können teure Konsequenzen in der Produktion nach sich ziehen. Aufgrund der astronomischen Varianz ist es praktisch unmöglich, solche Fehler durch erschöpfendes Testen zu finden. Jedoch ermöglichen automatische Beweisverfahren der Symbolischen KI, sog. Erfüllbarkeitsprüfer (SAT-Solver), die effiziente formal-logische Analyse auch sehr großer Regelmengen. Nicht nur die Anwesenheit von Fehlern, sondern auch deren Abwesenheit kann automatisch bewiesen werden, und alle Resultate können nachvollziehbar erklärt werden. Diese Methoden sind mittlerweile im breiten industriellen Einsatz.
    5. Automatisierung der Deduktion

      Wolfgang Bibel
      Zusammenfassung
      Vor dem Hintergrund der menschlichen Fähigkeit zur Erweiterung unseres Wissens durch logisches Schließen vermittelt dieser Beitrag einen Überblick der Automatischen Deduktion (AD), eines Teilgebiets der Disziplin der Künstlichen Intelligenz (KI). Er erläutert die Grundmerkmale sowohl der Resolutionsmethode als auch der Konnektionsmethode in der AD und umschreibt deren Varianten und Spezialisierungen sowie die aus der AD hervorgegangenen Beweissysteme, deren Leistungsfähigkeit und vielfältige Anwendungen. Der Text vermittelt zudem einen Einblick in die historische Entwicklung der AD sowie eine Vorstellung von ihrer Rolle, auch im Kontext von Lernverfahren, in der künftigen Entwicklung der KI.
    6. Von der Beweistheorie zu maschinellen Beweisassistenten

      Klaus Mainzer
      Zusammenfassung
      Die moderne Beweistheorie eröffnet die Möglichkeit, interaktive und automatische Beweisassistenten zu entwickeln, die sowohl Beweise in der Mathematik als auch Softwareprogramme in der Informatik überprüfen können. Die zunehmende Komplexität von menschlichem Wissen und menschlicher Technik macht Verifikation zu einem Schlüsselproblem zukünftiger Entwicklungen, insbesondere auf dem Gebiet der Künstlichen Intelligenz. Der Artikel zeigt aber auch, wie tief diese aktuellen Entwicklungsfragen in den Grundlagen von Logik, Mathematik und Philosophie verwurzelt sind.
  5. Grundlagen von Sprachsystemen

    1. Frontmatter

    2. Von der Sprachphilosophie zu ELIZA

      Stefan Höltgen
      Zusammenfassung
      Der nachfolgende Abschnitt beschäftigt sich mit dem Zusammenhang von Sprache und künstlicher Intelligenz. Hierzu wird zunächst die Beziehung von Sprache zu Intelligenz beziehungsweise die Zuschreibung von Intelligenz aufgrund von evozierter maschineller Sprachfähigkeit erörtert. Dieser Zusammenhang ist nicht bloß sprachphilosophisch begründet, sondern wurde und wird auch kultur- und medienhistorisch (im Bild von der sprechenden Maschine) konstatiert und befruchtet von dort aus auch wissenschaftliche Diskurse, weshalb ausgewählte Positionen hieraus vorgestellt werden. Die Logik als formalisierte und formale Sprache und Ausgangspunkt der Entwicklung sowohl von anderen formalen Sprachen (Programmiersprachen) als auch Implementierungen von Turing-Maschinen (Computer) wird als ein zweiter Strang des Zusammenhangs von Sprache und künstlicher Intelligenz verfolgt; den dritten Strang bildet schließlich die Entwicklung eines Konzepts von künstlicher Intelligenz (Turing-Test) und seine Implementierung im Programm ELIZA, dessen Entwicklungs- und Rezeptionsgeschichte dargestellt werden.
    3. Maschinelle Sprachverarbeitung, Kognition und Sprachphilosophie

      Klaus Mainzer
      Zusammenfassung
      Automaten und Maschinen erkennen Sprachen von einfachen symbolischen bis zu natürlichen Sprachen (1). In der Tradition symbolischer KI lässt sich sogar eine semantische Tiefenstruktur entwickeln, die mit kognitiven Strukturen des Gehirns in Zusammenhang gebracht wurde. Bei der maschinellen Sprachübersetzung werden durch das Machine learning entscheidende Durchbrüche der praktischen Anwendung gegenüber symbolischer KI erzielt (2). Offen bleiben allerdings Fragen des Sprachverstehens, die in der Philosophie der natürlichen Sprachen seit Wittgenstein gestellt werden (3).
    4. Chatbots und Künstliche Intelligenz

      Von den Grundlagen zu den Herausforderungen der Anwendungen Klaus Mainzer
      Zusammenfassung
      Mit Chatbots wie ChatGPT scheint die Künstliche Intelligenz im Alltag der Menschen angekommen zu sein. Die Medien überschlagen sich mit Verheißungen und Schreckensmeldungen. Der Hype seit dem November 2022 zeigt, wie notwendig es ist, die Grundlagen und Grenzen der verwendeten Algorithmen zu verstehen. Dann eröffnet sich mit den heutigen Rechen- und Speichermöglichkeiten zwar ein gewaltiges Potenzial. Andererseits erweisen sich aber auch viele Stellungnahmen von sogenannten Experten als gezielte Übertreibungen, um den Hype und damit das Geschäft zu befeuern. Daher wird zunächst an die Entwicklung von Sprachsystemen seit ihren Anfängen erinnert, um dann die verwendeten Algorithmen zu erklären. Dabei werden Defizite und Empfehlungen abgeleitet, um den zukünftigen Einsatz von KI als sinnvolle Dienstleistung zu gewährleisten.
  6. Grundlagen von evolutionären Algorithmen

    1. Frontmatter

    2. Grundlagen konnektiver komplexer Systeme

      Marc-Thorsten Hütt
      Zusammenfassung
      Die Sicht, dass die Vernetzung von Elementen zu Komplexität führt, verweist auf zwei große Forschungsstränge: die Theorie der Selbstorganisation und die Theorie komplexer Netzwerke. Im Folgenden werden beide Forschungsstränge kurz dargestellt und an drei einfachen Beispielen illustriert: die Synchronisation dynamischer Elemente, raumzeitliche Muster, die aus einfachen lokalen Regeln entstehen, und propagierende Wellen als kollektives Verhalten erregbarer Systeme. Es wird gezeigt, wie beide Forschungsstränge unsere Vorstellung wichtiger komplexer Systeme, speziell in der Biologie, geprägt haben. Auf dieser Grundlage wird illustriert, welche Bedeutung diese Theoriegebäude für unser Verständnis von künstlicher Intelligenz haben.
    3. Grundlagen zellulärer Automaten

      Klaus Mainzer
      Zusammenfassung
      Zelluläre Automaten waren erste Modelle, mit denen John von Neumann und Konrad Zuse die Selbstorganisation des Lebens simulierten. Sie wurden zur Grundlage erster Modelle künstlichen Lebens. Stephen Wolfram u. a. versuchten, durch Computerexperimente mit komplexen Automaten die Vielfalt komplexer Strukturen quasi-empirisch zu beschreiben. Tatsächlich erweisen sich zelluläre Automaten aber mathematisch als komplexe Systeme, deren Dynamik in Phasenübergängen durch Differenzialgleichung bzw. Differenzengleichungen modelliert werden kann. Damit werden ihre komplexen Muster- und Strukturbildungen analytisch exakt beschreibbar und prognostizierbar wie bei komplexen dynamischen Systemen der Physik. Bemerkenswert ist, dass damit auch fundamentale Symmetriegesetze wie in der Physik deutlich werden, auf die sich die Vielfalt der Muster und Strukturen reduzieren lässt.
    4. Grundlagen genetischer und evolutionärer Algorithmen

      Klaus Mainzer
      Zusammenfassung
      Die komplexen Datenmengen der Genombestimmung erfordern nicht nur schnelle und leistungsfähige Computer. Mit Machine Learning, statistischen und kausalen Lernalgorithmen werden Sequenzanalysen, Struktur- und Funktionsbestimmungen von Proteinen erste möglich. Unter dieser Voraussetzung eröffnen sich neue Perspektiven, um Krankheiten frühzeitig zu erkennen, aber auch virale Pandemien zu bekämpfen. Dabei werden RNA- und DNA-Strukturen als formale Sprachsysteme aufgefasst, die in lernenden Automaten und Maschinen verarbeitet werden. Ebenso ist die komplexe molekulare Evolution des Lebens nur noch durch die Unterstützung von Methoden des Maschine Learning zu entschlüsseln. Bioinformatik und Systembiologie liefern damit die entscheidenden Methoden der theoretischen Biologie. Die philosophische Reflexion ihrer Modelle ist mit den Grundlagen des Machine Learning und der Künstlichen Intelligenz eng verbunden.
Next
  • current Page 1
  • 2
  • 3
Title
Philosophisches Handbuch Künstliche Intelligenz
Editor
Klaus Mainzer
Copyright Year
2024
Electronic ISBN
978-3-658-19606-6
Print ISBN
978-3-658-19605-9
DOI
https://doi.org/10.1007/978-3-658-19606-6

Accessibility information for this book is coming soon. We're working to make it available as quickly as possible. Thank you for your patience.

Premium Partners

    Image Credits
    in-adhesives, MKVS, Ecoclean/© Ecoclean, Hellmich GmbH/© Hellmich GmbH, Krahn Ceramics/© Krahn Ceramics, Kisling AG/© Kisling AG, ECHTERHAGE HOLDING GMBH&CO.KG - VSE, Schenker Hydraulik AG/© Schenker Hydraulik AG