Dass eine zweiwertige Logik beim Schließen im Alltag zu Problemen führt, haben wir in Kap. 4 an Hand des Tweety-Problems aufgezeigt. In diesem Beispiel führen die Aussagen Tweety ist ein Pinguin, Alle Vögel können fliegen und Pinguine sind Vögel zu der Folgerung Tweety kann fliegen. Interessant wäre zum Beispiel eine Sprache, in der es möglich ist, die Aussage Fast alle Vögel können fliegen zu formalisieren und darauf dann Inferenzen durchzuführen. Die Wahrscheinlichkeitsrechnung stellt hierfür eine bewährte Methode bereit, denn durch die Angabe eines Wahrscheinlichkeitswertes lässt sich die Unsicherheit über das Fliegen von Vögeln gut modellieren. Wir werden zeigen, dass etwa eine Aussage wie 99 % aller Vögel können fliegen zusammen mit Wahrscheinlichkeitslogik zu korrekten Schlüssen führt.
Anzeige
Bitte loggen Sie sich ein, um Zugang zu diesem Inhalt zu erhalten
Die berechneten Wahrscheinlichkeiten können nur dann für weitergehende Aussagen benutzt werden, wenn die gemessene Stichprobe (100 Fahrzeuge) repräsentativ ist. Andernfalls können nur Aussagen über die beobachteten 100 Fahrzeuge gemacht werden.
Der Autor ist kein Mediziner. Daher sollten diese Berechnungen von eventuellen Betroffenen nicht als Grundlage für persönliche Entscheidungen verwendet werden. Gegebenenfalls ist ein Facharzt beziehungsweise die einschlägige Fachliteratur zu konsultieren.
Eine Menge von probabilistischen Gleichungen heißt konsistent, wenn es mindestens eine Lösung (das heißt mindestens ein Verteilung) gibt, die alle Gleichungen erfüllt.
Das Projekt wurde finanziert vom Land Baden-Württemberg im Rahmen der Innovativen Projekte, von der AOK Baden-Württemberg, der Hochschule Ravensburg-Weingarten und vom Krankenhaus 14 Nothelfer in Weingarten.
Die Aufgabe, aus einer Menge von Daten eine Funktion zu generieren, wird als maschinelles Lernen bezeichnet. Hierauf wird in Kap. 8 ausführlich eingegangen.
Der Unterschied zu einem Bayesnetz liegt z. B. darin, dass die Regeln noch mit Wahrscheinlichkeitsintervallen versehen sind und erst nach Anwendung des Prinzips maximaler Entropie ein eindeutiges Wahrscheinlichkeitsmodell erzeugt wird.
Bei der Naive-Bayes-Methode wird die Unabhängigkeit aller Attribute angenommen und mit Erfolg auf die Textklassifikation angewendet (siehe Abschn. 8.7).
Die binären Variablen J und M stehen für die beiden Ereignisse „John ruft an“, beziehungsweise „Mary ruft an“, Al für „Alarmsirene ertönt“, Ein für „Einbruch“ und Erd für „Erdbeben“.
Für den Fall eines Knotens ohne Vorgänger ist das Produkt in dieser Summe leer. Hierfür setzen wir den Wert 1 ein, denn die CPT für Knoten ohne Vorgänger enthält mit der A-priori-Wahrscheinlichkeit genau einen Wert.
Wenn zum Beispiel die drei Knoten X1, X2, X3 einen Zyklus bilden, dann gibt es die Kanten \((X_{1},X_{2})\), \((X_{2},X_{3})\) und \((X_{3},X_{1})\), wobei X3 den Nachfolger X1 hat.
In Abschn. 8.7, beziehungsweise in Aufgabe 17 werden wir zeigen, dass die Scores äquivalent sind zum Spezialfall Naive-Bayes, das heißt zur Annahme, alle Symptome sind bedingt unabhängig gegeben die Diagnose.