Skip to main content

1998 | OriginalPaper | Buchkapitel

IPF für bedingte Wahrscheinlichkeiten: Lernen in Probabilistischen Netzwerken

verfasst von : Hermann von Hasseln

Erschienen in: Data Mining

Verlag: Physica-Verlag HD

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Probabilistische Netzwerke (Probabilistic Independence Networks, PIN’s) stellen eine einheitliche Beschreibung der stochastischen Abhängigkeiten von Zufallsvariablen dar. Die Darstellung bezieht sich auf Graphen mit gerichteten Kanten, welche kausale Abhängigkeiten beschreiben, und auf Graphen mit ungerichtete Kanten, welche Korrelationen zwischen den Variablen beschreiben. In diesem Beitrag wird ein em—Algorithmus zum Lernen in gegeben Strukturen vorgestellt, die auch versteckte Variablen enthalten dürfen. Der Algorithmus ist eine Verallgemeinerung des em—Algorithmus’ für Boltzmann Maschinen (Byrne, 1992; Amari et al., 1992). Die e— und m—Schritte sind durch eine Verallgemeinerung des iterativen Fittings (Iterative Proportional Fitting, IPF) realisiert, welches Rand— und bedingte Verteilungen als Nebenbedingung verwendet. Weiterhin werden Hinweise zur effektiven Implementierung beruhend auf der Arbeit von (Jiroušek & Přeučil, 1995) gegeben.

Metadaten
Titel
IPF für bedingte Wahrscheinlichkeiten: Lernen in Probabilistischen Netzwerken
verfasst von
Hermann von Hasseln
Copyright-Jahr
1998
Verlag
Physica-Verlag HD
DOI
https://doi.org/10.1007/978-3-642-86094-2_10