1998 | OriginalPaper | Buchkapitel
IPF für bedingte Wahrscheinlichkeiten: Lernen in Probabilistischen Netzwerken
verfasst von : Hermann von Hasseln
Erschienen in: Data Mining
Verlag: Physica-Verlag HD
Enthalten in: Professional Book Archive
Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.
Wählen Sie Textabschnitte aus um mit Künstlicher Intelligenz passenden Patente zu finden. powered by
Markieren Sie Textabschnitte, um KI-gestützt weitere passende Inhalte zu finden. powered by
Probabilistische Netzwerke (Probabilistic Independence Networks, PIN’s) stellen eine einheitliche Beschreibung der stochastischen Abhängigkeiten von Zufallsvariablen dar. Die Darstellung bezieht sich auf Graphen mit gerichteten Kanten, welche kausale Abhängigkeiten beschreiben, und auf Graphen mit ungerichtete Kanten, welche Korrelationen zwischen den Variablen beschreiben. In diesem Beitrag wird ein em—Algorithmus zum Lernen in gegeben Strukturen vorgestellt, die auch versteckte Variablen enthalten dürfen. Der Algorithmus ist eine Verallgemeinerung des em—Algorithmus’ für Boltzmann Maschinen (Byrne, 1992; Amari et al., 1992). Die e— und m—Schritte sind durch eine Verallgemeinerung des iterativen Fittings (Iterative Proportional Fitting, IPF) realisiert, welches Rand— und bedingte Verteilungen als Nebenbedingung verwendet. Weiterhin werden Hinweise zur effektiven Implementierung beruhend auf der Arbeit von (Jiroušek & Přeučil, 1995) gegeben.