Skip to main content
main-content

Über dieses Buch

Lernen Sie in diesem Lehrbuch verschiedene Methoden wissensbasierter Systeme kennen

Intelligente Computersysteme sind in Zeiten der Digitalisierung ein wesentlicher Bestandteil der Gesellschaft. Es ist ihre Aufgabe, Wissen in jeglicher Form darzustellen und zu verarbeiten. Dieses Lehrbuch von Christoph Beierle und Gabriele Kern befasst sich mit unterschiedlichen Methoden wissensbasierter Systeme.

Die überarbeitete sechste Auflage des Werkes umfasst 14 Kapitel, die sich unter anderem mit folgenden Themen befassen:

· Einleitung

· Wissensbasierte Systeme im Überblick

· Logikbasierte Wissensrepräsentation und Inferenz

· Regelbasierte Systeme

· Maschinelles Lernen

· Fallbasiertes Schließen

· Truth Maintenance-Systeme

· Default-Logiken

· Logisches Programmieren und Antwortmengen

· Argumentation

· Aktionen und Planen

· Agenten

· Quantitative Methoden I – Probabilistische Netzwerke

· Quantitative Methoden II – Dempster-Shafer-Theorie, Fuzzy-Theorie und Possibilistik

Neben der Künstlichen Intelligenz ist außerdem die logikbasierte Wissensrepräsentation und Inferenz von zentraler Bedeutung in diesem Lehrbuch über die Methoden der künstlichen Intelligenz. Dazu bereiten die Autoren den Inhalt anschaulich und leicht verständlich auf und machen das kompakte Nachschlagewerk so zu einer absoluten Empfehlung für das Selbststudium und als Begleittext für entsprechende Vorlesungen.

Erfahren Sie mehr über die aktuellen Entwicklungen

Das Lehrbuch erklärt Ihnen nicht nur die Grundlagen (z. B. Algorithmen) zu verschiedenen Methoden wissensbasierter Systeme. Es zeigt Ihnen zudem die Funktionen eingebetteter Systeme und kristallisiert die Notwendigkeit Künstlicher Intelligenzen heraus. Die Autoren befassen sich sowohl mit den Stärken als auch mit den Schwächen der heutigen Technik, um Ihnen mit diesem Lehrbuch ein kritisches Verständnis für die Methoden wissensbasierter Systeme zu vermitteln.

Inhaltsverzeichnis

Frontmatter

Kapitel 1. Einleitung

Zusammenfassung
Mittlerweile sind weltweit unzählige wissensbasierte Systeme im Einsatz, und eine ebenso große Zahl von Systemen befindet sich wahrscheinlich zur Zeit in der Entwicklung – Computersysteme steuern und kontrollieren Prozesse, übernehmen Wartungsaufgaben und Fehlerdiagnosen, Roboter befördern Hauspost und kommunizieren dabei mit ihrer Umgebung, entscheidungsunterstützende Systeme helfen bei der Analyse komplexer Zusammenhänge (z.B. in der Wirtschaft und bei Banken), medizinische Diagnosesysteme beraten den behandelnden Arzt und unterbreiten Therapievorschläge, Expertensysteme nutzt man zu Konfigurations- und Planungsaufgaben, tutorielle Systeme werden zur Schulung insbesondere in mit hohem Risiko verbundenen Bereichen (z.B. Flugsimulation und Chirurgie) eingesetzt u.v.a.m.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 2. Wissensbasierte Systeme im Überblick

Zusammenfassung
Nach ersten Beispielen für wissensbasierte Systeme gehen wir auf die Unterscheidung zwischen Expertensystemen und wissensbasierten Systemen ein. Angaben zu der Geschichte des Gebietes werden ergänzt durch die Vorstellung des für die Geschichte so wichtigen medizinischen Expertensystems MYCIN. Danach beschreiben wir den generellen Aufbau eines wissensbasierten Systems; dieser generelle Aufbau lässt sich schon recht gut an dem MYCIN-System erkennen.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 3. Logikbasierte Wissensrepräsentation und Inferenz

Zusammenfassung
In diesem Kapitel werden wir auf die Grundlagen logikbasierter Ansätze zur Wissensrepräsentation und -inferenz eingehen. Neben einem allgemeinen Überblick werden wir dabei insbesondere die charakteristischen Eigenschaften klassisch-logischer Systeme herausarbeiten, die zum einen den Kern vieler Repräsentationssprachen bilden und zum anderen als Referenzobjekt zur Beurteilung von semantischer Fundierung, Ausdrucksstärke etc. solcher Sprachen dienen.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 4. Regelbasierte Systeme

Zusammenfassung
In Kapitel 2 haben wir bereits ein regelbasiertes System kennengelernt: den Geldautomaten. Wir führten einige Regeln an, die die Bewilligung einer Auszahlung gestatten oder verweigern. Damit der Geldautomat korrekt arbeitet, muss ein Regelinterpreter die Anwendung der Regeln steuern.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 5. Maschinelles Lernen

Zusammenfassung
Ähnlich wie es grundlegende Schwierigkeiten gibt, den Begriff der künstlichen Intelligenz exakt zu definieren, gilt dies auch für den Begriff des maschinellen Lernens. Beide Begriffe stehen nämlich in einem ähnlichen Verhältnis zueinander, wie dies auch die Begriffe der Intelligenz und des Lernens tun. Intelligentes Verhalten wird oft eng mit der Fähigkeit des Lernens verknüpft; in der Tat spielt bei der Entwicklung der Intelligenz beim Menschen die Lernfähigkeit eine ganz entscheidende Rolle.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 6. Fallbasiertes Schließen

Zusammenfassung
Mit den regelbasierten Systemen haben wir eine wichtige Grundform wissensbasierter Systeme kennengelernt. Ihre Bedeutung verdanken sie nicht zuletzt dem Umstand, dass Regeln in besonderem Maße als Repräsentanten von Wissen akzeptiert und geschätzt werden. Regeln drücken generisches Wissen aus, also allgemeines, vom speziellen Kontext abstrahierendes Wissen.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 7. Truth Maintenance-Systeme

Zusammenfassung
Schon der Name “Nichtmonotone Logik(en)” mag Unbehagen einflößen. Man ist froh, endlich die formalen Hürden klassischer Logik genommen zu haben, hat ihre Formalismen verinnerlicht und weiß vielleicht sogar ihre Klarheit und verlässliche Stärke zu schätzen – wozu sich also nun mit einem Thema beschäftigen, das wie eine abstruse und höchst artifizielle Spielart der “normalen” Logik klingt?
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 8. Default-Logiken

Zusammenfassung
Während bei Truth Maintenance-Systemen die nichtmonotone Ableitung im Vordergrund steht und nichtmonotone Regeln hier – eher unscheinbar – als ein Mittel zum Zweck eingesetzt werden, rücken diese unsicheren Regeln (defeasible rules) in der Default-Logik in den Mittelpunkt des Geschehens. Sie bekommen einen eigenen Namen, Default-Regel oder einfach Default, und ein ganz spezielles Aussehen.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 9. Logisches Programmieren und Anwortmengen

Zusammenfassung
Kein anderes Gebiet im gesamten Bereich der Deduktions- und Inferenzsysteme ist so erfolgreich in praktische Anwendungen vorgedrungen wie das logische Programmieren. Beim klassischen logischen Programmieren handelt es sich um einen normalen Resolutionskalkül mit einer syntaktisch sehr einfach zu charakterisierenden Restriktion: Es werden nur Hornklauseln zugelassen, das sind Klauseln, die höchstens ein nicht negiertes Literal enthalten. Hornklauseln entsprechen Regeln, die in ihrem Bedingungsteil nur Atome enthalten und deren Folgerungsteil aus höchstens einem Atom besteht.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 10. Argumentation

Zusammenfassung
Der Bereich der Argumentation hat eine lange Tradition. Historisch gesehen ist Argumentation eine Teildisziplin der Philosophie, die sich mit der Analyse von Diskursen und mit Rhetorik beschäftigt. Dabei wird Argumentation zur dialektischen Erörterung benutzt, in der ein Sachverhalt unter unterschiedlichen Gesichtspunkten beleuchtet wird.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 11. Aktionen und Planen

Zusammenfassung
Wie das Ziehen von Schlussfolgerungen und das Lernen ist das zielgerichtete Planen etwas, in dem sich intelligentes Verhalten in besonderer Weise manifestiert. Während es aber beim Schließen darum geht festzustellen, ob ein bestimmter Sachverhalt vorliegt oder nicht, ist das Ziel des Planens ein anderes. Gegeben sei ein vorliegender Zustand und die Beschreibung eines erwünschten Zielzustands.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 12. Agenten

Zusammenfassung
Kaum ein anderes Paradigma hat die Entwicklung der Künstlichen Intelligenz in den letzten Jahren so beeinflusst und vorangetrieben wie das Konzept des Agenten. Ein Agent ist letztendlich das Zielobjekt, in dem alle Forschungsrichtungen der KI zusammenlaufen und zu einem integrierten, in seine Umgebung eingebetteten und mit ihr kommunizierenden System beitragen. S. Russell und P. Norvig haben den Agenten in ihrem Buch Artificial Intelligence [200] konsequent als Paradigma und Perspektive genutzt, um die einzelnen Themen ihres Buches miteinander zu verbinden.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 13. Quantitative Methoden I – Probabilistische Netzwerke

Zusammenfassung
Neben den symbolischenMethoden zur Repräsentation unsicheren Wissens verfolgte man von Anfang an auch quantitative Ansätze zur Repräsentation und Verarbeitung von Wissen. Ein wegweisendes Beispiel hierfür war MYCIN, eines der ersten namhaften Expertensysteme (siehe Kapitel 4.7). Im Allgemeinen werden dabei den Aussagen bzw. Formeln numerische Größen zugeordnet, die den Grad ihrer Gewissheit, die Stärke ihrer Einflussnahme, ihren Zugehörigkeitsgrad zu einer gewissen Menge o.Ä. ausdrücken.
Christoph Beierle, Gabriele Kern-Isberner

Kapitel 14. Quantitative Methoden II – Dempster-Shafer-Theorie, Fuzzy-Theorie und Possibilistik

Zusammenfassung
Ein Nachteil des üblichen probabilistischen Ansatzes ist die Erfordernis präziser Wahrscheinlichkeitswerte. Zum einen ist oft die Spezifikation solcher exakten Werte problematisch, zum anderen lässt sich probabilistische Unsicherheit nicht von der durch fehlendes Wissen bedingten Unsicherheit unterscheiden. Werfen wir eine Münze, so schätzen wir die Wahrscheinlichkeit, dass “Kopf” erscheint, in der Regel mit 0.5 ein, unabhängig davon, ob wir wissen, dass es sich um eine ideale Münze handelt.
Christoph Beierle, Gabriele Kern-Isberner

Backmatter

Weitere Informationen

Premium Partner

    Bildnachweise