Skip to main content
Top

2003 | Book | 2. edition

Methoden wissensbasierter Systeme

Grundlagen — Algorithmen — Anwendungen

Authors: Christoph Beierle, Gabriele Kern-Isberner

Publisher: Vieweg+Teubner Verlag

Book Series : Computational Intelligence

insite
SEARCH

Table of Contents

Frontmatter
1. Einleitung
Zusammenfassung
Mittlerweile sind weltweit unzählige wissensbasierte Systeme im Einsatz, und eine ebenso große Zahl von Systemen befindet sich wahrscheinlich zur Zeit in der Entwicklung — Computersysteme steuern und kontrollieren Prozesse, übernehmen Wartungsaufgaben und Fehlerdiagnosen, Roboter befördern Hauspost und kommunizieren dabei mit ihrer Umgebung, entscheidungsunterstützende Systeme helfen bei der Analyse komplexer Zusammenhänge (z.B. in der Wirtschaft und bei Banken), medizinische Diagnosesysteme beraten den behandelnden Arzt und unterbreiten Therapievorschläge, Expertensysteme nutzt man zu Konfigurations- und Planungsaufgaben, tutorielle Systeme werden zur Schulung insbesondere in mit hohem Risiko verbundenen Bereichen (z.B. Flugsimulation und Chirurgie) eingesetzt u.v.a.m. Die Menge der Programmierumgebungen, Tools und System-Shells, die bei der Entwicklung solcher wissensbasierter Systeme wertvolle Hilfestellung leisten können, scheint ebenso unüberschaubar, und die rasante Entwicklung im allgemeinen Softund Hardware-Bereich macht die Orientierung auf diesem Gebiet nicht einfacher.
Christoph Beierle, Gabriele Kern-Isberner
2. Wissensbasierte Systeme im Überblick
Zusammenfassung
Nach ersten Beispielen für wissensbasierte Systeme gehen wir auf die Unterscheidung zwischen Expertensystemen und wissensbasierten Systemen ein. Angaben zu der Geschichte des Gebietes werden ergänzt durch die Vorstellung des für die Geschichte so wichtigen medizinischen Expertensystems MYCIN. Danach beschreiben wir den generellen Aufbau eines wissensbasierten Systems; dieser generelle Aufbau lässt sich schon recht gut an dem MYCIN-System erkennen.
Christoph Beierle, Gabriele Kern-Isberner
3. Logikbasierte Wissensrepräsentation und Inferenz
Zusammenfassung
In diesem Kapitel werden wir auf die Grundlagen logikbasierter Ansätze zur Wissensrepräsentation und -inferenz eingehen. Neben einem allgemeinen Überblick werden wir dabei insbesondere die charakteristischen Eigenschaften klassisch-logischer Systeme herausarbeiten, die zum Einen den Kern vieler Repräsentationssprachen bilden und zum Anderen als Referenzobjekt zur Beurteilung von semantischer Fundierung, Ausdrucksstärke etc. solcher Sprachen dienen.
Christoph Beierle, Gabriele Kern-Isberner
4. Regelbasierte Systeme
Zusammenfassung
In Kapitel 2 haben wir bereits ein regelbasiertes System kennengelernt: den Geldautomaten. Wir führten einige Regeln an, die die Bewilligung einer Auszahlung gestatten oder verweigern. Damit der Geldautomat korrekt arbeitet, muss ein Regelinterpreter die Anwendung der Regeln steuern.
Christoph Beierle, Gabriele Kern-Isberner
5. Maschinelles Lernen
Zusammenfassung
Ähnlich wie es grundlegende Schwierigkeiten gibt, den Begriff der künstlichen Intelligenz exakt zu definieren, gilt dies auch für den Begriff des maschinellen Lernens. Beide Begriffe stehen nämlich in einem ähnlichen Verhältnis zueinander, wie dies auch die Begriffe der Intelligenz und des Lernens tun. Intelligentes Verhalten wird oft eng mit der Fähigkeit des Lernens verknüpft; in der Tat spielt bei der Entwicklung der Intelligenz beim Menschen die Lernfähigkeit eine ganz entscheidende Rolle.
Christoph Beierle, Gabriele Kern-Isberner
6. Fallbasiertes Schließen
Zusammenfassung
Mit den regelbasierten Systemen haben wir eine wichtige Grundform wissensbasierter Systeme kennengelernt. Ihre Bedeutung verdanken sie nicht zuletzt dem Umstand, dass Regeln in besonderem Maße als Repräsentanten von Wissen akzeptiert und geschätzt werden. Regeln drücken generisches Wissen aus, also allgemeines, vom speziellen Kontext abstrahierendes Wissen.
Christoph Beierle, Gabriele Kern-Isberner
7. Truth Maintenance-Systeme
Zusammenfassung
Schon der Name “Nichtmonotone Logik(en)” mag Unbehagen einflößen. Man ist froh, endlich die formalen Hürden klassischer Logik genommen zu haben, hat ihre Formalismen verinnerlicht und weiß vielleicht sogar ihre Klarheit und verlässliche Stärke zu schätzen — wozu sich also nun mit einem Thema beschäftigen, das wie eine abstruse und höchst artifizielle Spielart der “normalen” Logik klingt?
Christoph Beierle, Gabriele Kern-Isberner
8. Default-Logiken
Zusammenfassung
Während bei Truth Maintenance-Systemen die nichtmonotone Ableitung im Vordergrund steht und nichtmonotone Regeln hier — eher unscheinbar — als ein Mittel zum Zweck eingesetzt werden, rücken diese unsicheren Regeln (defeasible rules) in der Default-Logik in den Mittelpunkt des Geschehens. Sie bekommen einen eigenen Namen, Default-Regel oder einfach Default, und ein ganz spezielles Aussehen. Es handelt sich dabei um
  • Regeln mit Ausnahmen, oder
  • Regeln, die im Allgemeinen, meistens oder typischerweise gelten, oder
  • Regeln, die gelten, solange nicht das Gegenteil explizit bewiesen worden ist.
Christoph Beierle, Gabriele Kern-Isberner
9. Logisches Programmieren und Anwortmengen
Zusammenfassung
Kein anderes Gebiet im gesamten Bereich der Deduktions- und Inferenzsysteme ist so erfolgreich in praktische Anwendungen vorgedrungen wie das logische Programmieren. Beim klassischen logischen Programmieren handelt es sich um einen normalen Resolutionskalkül mit einer syntaktisch sehr einfach zu charakterisierenden Restriktion: Es werden nur Hornklauseln zugelassen, das sind Klauseln, die höchstens ein nicht-negiertes Literal enthalten. Hornklauseln entsprechen Regeln, die in ihrem Bedingungsteil nur Atome enthalten und deren Folgerungsteil aus höchstens einem Atom besteht. Diese Restriktion hat weitreichende Folgen für die Ableitungsmöglichkeiten und die dabei erzielbare Effizienz, aber auch auf das Antwortverhalten. Bei einem Inferenzsystem, das auf einem allgemeinen PL1-Kalkül basiert, können wir im Prinzip nur eine der drei folgenden Antworten erhalten: “Ja”, “Nein”, “Ich weiß nicht”, wobei die dritte Möglichkeit einer nicht terminierenden, unendlichen Ableitung entspricht. Beim klassischen logischen Programmieren sind alle Anfragen, die man an das Inferenzsystem stellt, existentiell quantifizierte Anfragen und die Antworten im positiven Fall sehr viel informativer als nur “Ja ”. Solche Anfragen werden nämlich konstruktiv im Sinne von “Ja, und zwar gilt dies für ... ” beantwortet.
Christoph Beierle, Gabriele Kern-Isberner
10. Aktionen und Planen
Zusammenfassung
Wie das Ziehen von Schlussfolgerungen und das Lernen ist das zielgerichtete Planen etwas, in dem sich intelligentes Verhalten in besonderer Weise manifestiert. Während es aber beim Schließen darum geht festzustellen, ob ein bestimmter Sachverhalt vorliegt oder nicht, ist das Ziel des Planens ein anderes. Gegeben sei ein vorliegender Zustand und die Beschreibung eines erwünschten Zielzustands. Die Planungsaktivität besteht dann darin, eine Folge von Aktionen zu erstellen, deren Ausführung den vorliegenden Zustand in einen Zustand überführt, in der die Zielbeschreibung zutrifft.
Christoph Beierle, Gabriele Kern-Isberner
11. Quantitative Methoden I — Probabilistische Netzwerke
Zusammenfassung
Neben den symbolischen Methoden zur Repräsentation unsicheren Wissens verfolgte man von Anfang an auch quantitative Ansätze zur Repräsentation und Verarbeitung von Wissen. Ein wegweisendes Beispiel hierfür war MYCIN, eines der ersten namhaften Expertensysteme (siehe Kapitel 4.7) . Im Allgemeinen werden dabei den Aussagen bzw. Formeln numerische Größen zugeordnet, die den Grad ihrer Gewissheit, die Stärke ihrer Einflussnahme, ihren Zugehörigkeitsgrad zu einer gewissen Menge o.Ä. ausdrücken. Außerdem müssen Verfahren zur Verfügung gestellt werden, die diese Größen verarbeiten, um neues — quantifiziertes — Wissen abzuleiten.
Christoph Beierle, Gabriele Kern-Isberner
12. Quantitative Methoden II — Dempster-Shafer, Fuzzy & Co.
Zusammenfassung
Ein Nachteil des üblichen probabilistischen Ansatzes ist die Erfordernis präziser Wahrscheinlichkeitswerte. Zum Einen ist oft die Spezifikation solcher exakten Werte problematisch, zum Anderen lässt sich probabilistische Unsicherheit nicht von der durch fehlendes Wissen bedingten Unsicherheit unterscheiden. Werfen wir eine Münze, so schätzen wir die Wahrscheinlichkeit, dass “Kopf” erscheint, in der Regel mit 0.5 ein, unabhängig davon, ob wir wissen, dass es sich um eine ideale Münze handelt. In diesem Fall erscheint tatsächlich — bei beliebig häufigen Versuchen — in 50% aller Würfe “Kopf” , d.h. der Wert 0.5 beruht auf einer gesicherten statistischen Erkenntnis. Doch selbst wenn wir unsicher sind, ob die Münze wirklich ideal ist, werden wir als Wahrscheinlichkeit 0.5 angeben und drücken damit unser vollkommenes Unwissen über den Ausgang des Münzwurfs aus. Wahrscheinlichkeitswerte können also ganz unterschiedliche kognitive Hintergründe haben, die sich durch eine Wahrscheinlichkeitsverteilung nicht mehr ausdrücken lassen.
Christoph Beierle, Gabriele Kern-Isberner
A. Wahrscheinlichkeit und Information
Zusammenfassung
Üblicherweise führt man den Wahrscheinlichkeitsbegriff mit Hilfe von Wahrscheinlichkeitsmaßen über Wahrscheinlichkeitsräumen — im Wesentlichen also über Mengenalgebren — ein. Wir werden hier nur spezielle Mengenalgebren betrachten, nämlich Potenzmengen (= Mengen aller Teilmengen) einer Menge Ω. Diese sind trivialerweise bzgl. Vereinigung, Durchschnitt und Komplementbildung abgeschlossen, so dass die Frage der Messbarkeit einer Menge (formal lediglich ihre Zugehörigkeit zur betrachteten Mengenalgebra) nicht ausdrücklich diskutiert werden muss: Alle Teilmengen von Ω sind Elemente der Potenzmenge 2Ω und daher messbar im wahrscheinlichkeitstheoretischen Sinne.
Christoph Beierle, Gabriele Kern-Isberner
B. Graphentheoretische Grundlagen
Zusammenfassung
Soweit wir sie für die Behandlung probabilistischer Netzwerke benötigen, stellen wir hier die graphentheoretischen Grundlagen vor. Neben den allgemein gebräuchlichen Begriffen sind dies insbesondere die Konzepte moraler und triangulierter Graphen, die sog. running intersection property (fortlaufende Schnitteigenschaft) sowie Hypergraphen.
Christoph Beierle, Gabriele Kern-Isberner
Backmatter
Metadata
Title
Methoden wissensbasierter Systeme
Authors
Christoph Beierle
Gabriele Kern-Isberner
Copyright Year
2003
Publisher
Vieweg+Teubner Verlag
Electronic ISBN
978-3-663-05681-2
Print ISBN
978-3-528-15723-4
DOI
https://doi.org/10.1007/978-3-663-05681-2