Skip to main content
main-content

Inhaltsverzeichnis

Frontmatter

1. Einleitung

Zusammenfassung
Künstliche Neuronale Netze (KNN) sind methodisch eine der zentralen technischen Innovationen seit Mitte der 80er Jahre, die viele Wissenschaftsbereiche tangieren und mit großen Erwartungen hinsichtlich Prognosefähigkeiten und Erkenntnisgewinn verbunden sind. Diese nichtlineare Modellklasse eröffnete ein breites Forschungsfeld, auf dem heute sowohl Mathematiker als auch Biologen, Informatiker, Physiker, Wirtscharts- und Sozialwissenschaftler arbeiten. Bei allen großen Tagungen über Neuronale Netze1 sind diese und noch weitere Fachrichtungen vertreten. Es wurde somit ein hoher Grad an Interdisziplinarität erreicht, der sich in Analysen der theoretischen Eigenschaften und praktischen Einsatzmöglichkeiten Künstlicher Neuronaler Netze ausdrückt.
Janette F. Walde

2. Das Mehrschichtige Perzeptron (MLP)

Zusammenfassung
Allen unter dem Namen „Künstliche Neuronale Netze“ subsummierten Netzwerken ist gemeinsam, dass sie sich aus einzelnen Berechnungselementen zusammensetzen, die nach einer bestimmten Vorschrift Eingaben zu Ausgaben6 verarbeiten. Wie diese Berechnungselemente angeordnet sind und welche Verbindungen zwischen ihnen existieren, liefert eine erste Klassifikationsmöglichkeit nach der Topologie der Netze.
Janette F. Walde

3. Standardprobleme beim Einsatz vom MLP

Zusammenfassung
Im letzten Kapitel wurde die Funktionsweise eines MLP erklärt und an jedem Ende eines Abschnitts jene Entscheidungen aufgezeigt, die der Anwender beim konkreten Einsatz vom MLP treffen muss. In diesem Kapitel sollen nun diese Ausgestaltungsmöglichkeiten genauer untersucht und wenn möglich Entscheidungshilfen aus Theorie und Praxis angeführt werden. Obwohl das MLP eine einfache Modellklasse zu sein scheint, sind die Standardprobleme bei seinem Einsatz und das Fehlen notwendiger wissenschaftlicher Untersuchungen eklatant.
Janette F. Walde

4. KNN-Software

Zusammenfassung
Für die Durchführung der Berechnungen standen drei Softwareprogramme zur Verfügung:
  • Neural Connection von SPSS
  • Neuframe von Neural Computer Sciences
  • SENN (Software Entwicklungsumgebung für Neuronale Netze) von Siemens München.
Janette F. Walde

5. Klassifikation mit Hilfe des Regressionsansatzes

Zusammenfassung
Auf der Grundlage einer Fallstudie sollen in diesem Kapitel Hypothesen zu den folgenden, für den Einsatz von Künstlichen Neuronalen Netzen wichtigen Fragen abgeleitet werden:
1.
Wie gut arbeiten KNN (nichtlineare) Zusammenhänge heraus, wenn sie (fast) unbeschränkt Trainingsdaten zur Verfügunghaben, und führt dies zu quantitativer Überlegenheit gegenüber klassischen (linearen) Ansätzen? Sind die erzielten Ergebnisse interpretierbar und die Vorgehensweisen begründbar oder stimmt der Vorwurf, Künstliche Neuronale Netze seien eine „Black-Box“ und damit zum theoretischen Erkenntnisgewinn nicht einsetzbar beziehungsweise theorieunfähig?
 
2.
Wie gut können sie spärliche beziehungsweise umfangreiche Informationen nutzen, und wann erreichen sie eine Sättigung hinsichtlich ihrer Prognosequalität?
 
3.
Als iterative Verfahren garantieren die Lernalgorithmen der KNN lediglich ein lokales Optimum. Wie stark schwanken die Erfolgsindikatoren (zum Beispiel Trefferquoten oder Fehlennaße) bei unterschiedlichen Ausgangsgewichten sowie bei unterschiedlichen Zufallsstichproben und Stichprobengrößen?
 
Janette F. Walde

6. Klassifikation mit Hilfe des wahrscheinlichkeitsbasierten Ansatzes

Zusammenfassung
Im vorangegangenen Kapitel diente die Diskriminanzanalyse als Benchmarkverfahren. Dieses Analyseinstrument liefert als Output nicht nur die Klassenzugehörigkeit, sondern auch die Wahrscheinlichkeit, mit der ein Datensatz einer bestimmten Klasse angehört. Diese Wahrscheinlichkeiten konnten mit Hilfe des MLP-Regressionsansatzes nicht ermittelt werden. Da die Analyse der Wahrscheinlichkeiten (zum Beispiel: die zweitbeste Klasse) interessante Erkenntnisse für die Interpretation der Ergebnisse erwarten lässt, wird in diesem Kapitel die Klassifikation unterschiedlicher Vegetationseinheiten in einem alpinen Gelände aufgrund zehn naturwissenschaftlicher Parameter (vgl. Kapitel 5.1) mittels wahrscheinlichkeitsbasiertem Ansatz versucht.
Janette F. Walde

7. Optimale Anzahl der verborgenen Neuronen

Zusammenfassung
Ein Freiheitsgrad, auf dessen falsche Wahl die Performance des Netzes vor allem bei kleinen Stichproben empfindlich reagiert, ist die Zahl der verborgenen Neuronen. Dies wurde bereits in den Kapiteln 5.4.1 und 6.3.1 demonstriert. Wird das Netz überparametrisiert, besteht die Gefahr von Overfitting und damit einer schlechten Generalisierungsfàhigkeit. Stehen dem Netz zu wenig Gewichte im Trainingsprozess zur Verfügung, dann wird dies tendenziell zu großen Abweichungen zwischen dem wahren funktionalen Zusammenhang und dem geschätzten Zusammenhang führen und damit ebenfalls zu einer schlechten Prognose (vgl. Abbildung 7-1).
Janette F. Walde

8. Schlussfolgerungen

Zusammenfassung
Aufgrund der theoretisch bewiesenen Fähigkeiten und der Vielzahl ihrer Anwendungsmöglichkeiten für Prognose-, Klassifikation-, Cluster- und Optimierungsaufgaben sind Künstliche Neuronale Netze ein faszinierendes nichtlineares Analyseverfahren für die unterschiedlichsten Fragestellungen in den verschiedensten wissenschaftlichen Disziplinen. Bei der Anwendung dieses Instrumentariums werden in der Regel keine expliziten Annahmen über die funktionale Form des zu modellierenden Zusammenhangs getroffen. Damit besteht die eigentliche Aufgabe nicht mehr in der a priori substanzwissenschaftlichen Fundierung der zugrunde gelegten Zusammenhänge für die Modellierung, viel mehr erlaubt das trainierte Künstliche Neuronale Netz mit Hilfe einer Sensitivitätsanalyse die Identifikation wichtiger Inputvariablen sowie der Einflussstärke der Variablen auf den entsprechenden Output. Es ist aber auch möglich, wie in Kapitel 5.3.2 und 6.2.2 dargestellt wurde, mittels eines Expertensystems, bestehend aus mehreren Verfahren, fehlende Information in den unabhängigen Variablen nachzuweisen oder a priori fehl spezifizierte Beobachtungseinheiten zu entdecken.
Janette F. Walde

Backmatter

Weitere Informationen