Skip to main content

1992 | Buch | 2. Auflage

Simulation Neuronaler Netze

Grundlagen, Modelle, Programme in Turbo Pascal

verfasst von: Norbert Hoffmann

Verlag: Vieweg+Teubner Verlag

insite
SUCHEN

Inhaltsverzeichnis

Frontmatter

Grundlagen

1. Einleitung
Zusammenfassung
Neuronale Netze beruhen auf Prinzipien, die eng mit denen verwandt sind, welche gemäß heutiger Auffassung der Arbeitsweise tierischer und menschlicher Nervensysteme zugrundeliegen. Das steigende Interesse, das neuronalen Netzen entgegengebracht wird, ist in dieser Tatsache begründet. Zum einen bietet die Beschäftigung mit neuronalen Netzen die Möglichkeit, das Verhalten von Nervensystemen besser zu verstehen. Wesentlich größere praktische Bedeutung dürften jedoch technische Anwendungen haben. Die bisherigen Erfahrungen geben Grund zur Hoffnung, daß eines der Hauptziele der Künstlichen Intelligenz, nämlich die Nachbildung typisch menschlicher Fähigkeiten, mit neuronalen Netzen auf überraschend einfache Weise erreicht werden kann. werden kann. Lesen handschriftlicher Aufzeichnungen und Fertigungsroboter sind einige Beispiele dafür.
Norbert Hoffmann
2. Allgemeine Beschreibung des Programms
Zusammenfassung
Das Programm läuft auf Personalcomputern des Typs IBM-PC und Kompatiblen. Es wurde unter MS-DOS 3.3 entwickelt. Die weiteren Anforderungen an die Rechnerkonfiguration sind:
1)
Arbeitsspeicher: mindestens 512 kB
 
2)
Massenspeicher: zwei Diskettenlaufwerke mit je 360 kB oder eine Festplatte
 
3)
Bildschirm: Das Programm arbeitet im Textmodus. Daher genügt ein monochromer Bildschirm ohne Grafikfähigkeiten. Allerdings bietet ein Farbbildschirm einen höheren Bedienungskomfort.
 
4)
Maus: unbedingt empfehlenswert. Zwar sind alle wesentlichen Programmfunktionen über die Tastatur zugänglich; einige nützliche Aktivitäten, wie das Verschieben und die Größenänderung von Fenstern, sind jedoch nur mit der Maus möglich.
 
5)
Coprozessor: nicht erforderlich.
 
Diesem Buch ist eine Diskette beigelegt, auf der das auführbare Programm, die Musterdaten der behandelten Beispiele sowie sämtliche Quelltexte enthalten sind. Wie Sie das Programm auf Ihrem Computer installieren, können Sie der Datei LIESDAS. TXT auf der Diskette entnehmen.
Norbert Hoffmann

Modelle

3. Grundlagen des Muster-Assoziators
Zusammenfassung
Ein einfaches Beispiel für ein neuronales Netz ist der Muster-Assoziator. Er hat die Aufgabe, Beziehungen zwischen Musterpaaren herzustellen: Wird an seinem Eingang ein bestimmtes Eingangsmuster Ej (j = l…NE) angelegt, so soll an seinem Ausgang das zugehörige Ausgangsmuster Ai (i = 1…NA) erscheinen. Sein Aufbau ist besonders einfach. Er besteht aus ebensovielen Neuronen, wie er Ausgänge hat. Der Ausgang des Neurons i führt zum Netzausgang Ai. Die Eingänge eines jeden Neurons sind mit allen Netzeingängen verbunden; daher hat jedes Neuron NE Eingänge. Der Muster-Assoziator ist also ein einschichtiges neuronales Netz ohne verborgene Neuronen.
Norbert Hoffmann
4. Anwendungen des Muster-Assoziators
Zusammenfassung
Ein herkömmlicher Computer speichert Daten auf adreßorientierte Weise: Legt man am Eingang des Speichers eine Adresse an, so erhält man an seinem Ausgang den Inhalt des betreffenden Speicherplatzes. Um eine Information zu bekommen, muß man also ihre Adresse wissen. In vielen Fällen möchte man aber lieber einen “assoziativen” Zugriff zu gespeicherten Informationen: Statt einer Adresse legt man ein Muster am Eingang an und erhält am Ausgang das zugehörige (“assoziierte”) Ausgangsmuster.
Norbert Hoffmann
5. Auto-Assoziatoren
Zusammenfassung
Ein neuronales Netz, das eine große Ähnlichkeit mit dem Muster-Assoziator aufweist, ist der Auto-Assoziator. Während jener Musterpaare zu lernen hatte, speichert der Auto-Assoziator einzelne Muster. Wird beispielsweise am Eingang ein Muster angeboten, das durch eine Störung aus einem der gespeicherten Muster hervorgegangen ist, so soll am Ausgang das Originalmuster erscheinen. Daher sind Ein- und Ausgangsfeld dieses Netzes gleich strukturiert; insbesondere ist NE = NA. Ferner besteht der Auto-Assoziator aus einer einzigen Schicht von Neuronen, die alle mit dem Netzausgang verbunden sind; daher ist die Neuronenzahl N = NA.
Norbert Hoffmann
6. Training verborgener Einheiten mit der Backpropagation-Lernregel
Zusammenfassung
Beim Muster-Assoziator haben wir gesehen, daß er einfache logische Probleme wie das ODER-Problem lösen kann. Ebenso einfach ist das in Tabelle 6–1 beschriebene XOR-Problem. Dabei handelt es sich um die logische Exklusiv-ODER-Verknüpfung: der Ausgang soll genau dann 1 sein, wenn die beiden Eingänge verschieden sind.
Norbert Hoffmann
7. Hopfield-Netze
Zusammenfassung
Das Hopfield-Netz wurde erstmals von Hopfield (1982) vorgestellt. Dieser Netztyp unterscheidet sich in einigen charakteristischen Einzelheiten von den bisher behandelten. Bild 7–1 zeigt den Aufbau eines Hopfield-Netzes aus drei Neuronen. Jedes Neuron ist mit jedem anderen Neuron verbunden; es handelt sich also um ein vollständig verbundenes Netz. Ein Vergleich mit Bild 5–1 zeigt, daß dieses Netz — vom Aufbau her gesehen — eine Variante des Auto-Assoziators ist, die sich durch das Fehlen der Selbstrückkopplung auszeichnet. Im Bild ist das dadurch angedeutet, daß die Eingänge, die zu den Gewichten wii gehören, nicht verbunden sind.
Norbert Hoffmann
8. Zusammenfassende Übersicht über die behandelten Netzmodelle
Zusammenfassung
Die Berechnung des Neurons i erfolgt in drei Schritten. Aus den Werten ej am Eingang bestimmt man zunächst den effektiven Eingangswert εi (Tabelle 8–1). Mit der Aktivierungsfunktion (Tabelle 8–2) erhält man daraus die Aktivität ci und daraus wiederum mit der Ausgangsfunktion (Tabelle 8–3) den Ausgangswert ai.
Tabelle 8-1 Effektiver Eingangswert Der Index i bezeichnet das betrachtete Neuron.
Argumente der Funktion
wij Gewichte des Neurons i
 
Ej Eingänge am Neuron
 
N Anzahl der Eingänge
Funktionsergebnis
\( {\varepsilon_i} = \sum\limits_{{j = 1}}^n {{e_{{ij}}}{e_j}} \)
Norbert Hoffmann

Programme

9. Grundlegende Programme
Zusammenfassung
Das Programm baut auf der Bedieneroberfläche Turbo-Vision auf, die seit der Version 6.0 von Turbo-Pascal verfügbar ist.
Norbert Hoffmann
10. Neuronstrukturen und Hilfsprogramme
Norbert Hoffmann
11. Objekt TNetz (Unit NETZ)
Norbert Hoffmann
12. Eingabe und Modifikation des Programms
Zusammenfassung
Wenn Sie Änderungen am Programm vornehmen wollen, benötigen Sie den Quelltext, den Sie der beiliegenden Diskette entnehmen können. Dieser muß mit Turbo-Pascal 6.0 compiliert werden. Die erforderlichen Textdateien stehen in Tabelle 12–1. Das Hauptprogramm heißt NN.PAS.
Norbert Hoffmann

Anhang

13. Literaturverzeichnis
Norbert Hoffmann
14. Synonymverzeichnis
Zusammenfassung
Dieses Verzeichnis enthält eine Auswahl von Fachusdrücken. Links steht der in diesem Buch verwendete Ausdruck, rechts eine Liste zugehöriger Synonyme. Englische Ausdrü sind kursiv gestzt.
Norbert Hoffmann
15. Symbolverzeichnis
Norbert Hoffmann
Backmatter
Metadaten
Titel
Simulation Neuronaler Netze
verfasst von
Norbert Hoffmann
Copyright-Jahr
1992
Verlag
Vieweg+Teubner Verlag
Electronic ISBN
978-3-322-83200-9
Print ISBN
978-3-322-83201-6
DOI
https://doi.org/10.1007/978-3-322-83200-9