Skip to main content
Top

1998 | OriginalPaper | Chapter

IPF für bedingte Wahrscheinlichkeiten: Lernen in Probabilistischen Netzwerken

Author : Hermann von Hasseln

Published in: Data Mining

Publisher: Physica-Verlag HD

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Probabilistische Netzwerke (Probabilistic Independence Networks, PIN’s) stellen eine einheitliche Beschreibung der stochastischen Abhängigkeiten von Zufallsvariablen dar. Die Darstellung bezieht sich auf Graphen mit gerichteten Kanten, welche kausale Abhängigkeiten beschreiben, und auf Graphen mit ungerichtete Kanten, welche Korrelationen zwischen den Variablen beschreiben. In diesem Beitrag wird ein em—Algorithmus zum Lernen in gegeben Strukturen vorgestellt, die auch versteckte Variablen enthalten dürfen. Der Algorithmus ist eine Verallgemeinerung des em—Algorithmus’ für Boltzmann Maschinen (Byrne, 1992; Amari et al., 1992). Die e— und m—Schritte sind durch eine Verallgemeinerung des iterativen Fittings (Iterative Proportional Fitting, IPF) realisiert, welches Rand— und bedingte Verteilungen als Nebenbedingung verwendet. Weiterhin werden Hinweise zur effektiven Implementierung beruhend auf der Arbeit von (Jiroušek & Přeučil, 1995) gegeben.

Metadata
Title
IPF für bedingte Wahrscheinlichkeiten: Lernen in Probabilistischen Netzwerken
Author
Hermann von Hasseln
Copyright Year
1998
Publisher
Physica-Verlag HD
DOI
https://doi.org/10.1007/978-3-642-86094-2_10

Premium Partner