Skip to main content

2024 | OriginalPaper | Buchkapitel

5. Modellierung lernender Systeme durch Neuronale Netze (NN)

verfasst von : Christina Klüver, Jürgen Klüver, Jörn Schmidt

Erschienen in: Modellierung komplexer Prozesse durch naturanaloge Verfahren

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Neuronale Netze gehören, wie bereits in der Einleitung erwähnt, zu den wichtigsten Algorithmen in den Bereichen der KI-Forschung und des Maschinellen Lernens (Machine Learning – ML). Gerade hier hat in den letzten Jahren eine ungemein dynamische Entwicklung stattgefunden. Auf die verschiedenen Erweiterungen der Grundlogik neuronaler Netze, die z. T. kaum noch übersehbar sind, können wir in dieser Einführung nur durch einzelne Beispiele verweisen. Wie bei den anderen Kapiteln geht es auch hier vor allem darum, die allgemeine Logik dieser speziellen (und sehr vielfältigen) Algorithmen so darzustellen, dass eine eigene Beschäftigung auch mit neuesten Entwicklungen möglich und sinnvoll wird.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Fußnoten
1
Insbesondere im Zusammenhang mit „Deep Learning“ wird die Netto-Inputfunktion praktisch nicht mehr erwähnt.
 
2
Man kann natürlich die Schwellenwertfunktion als Aktivierungsfunktion bestimmen, dann ist die Ausgabefunktion die Identitätsfunktion.
 
3
Der Vollständigkeit halber sei noch erwähnt, dass die Notwendigkeit einer Zwischenschicht für die Darstellung der XOR-Funktion „nur“ für den Fall von sog. feed forward Netzen gilt (s. u.), also Netze, bei denen es nur Verbindungen von der Eingabeschicht und ggf. über Zwischenschichten zur Ausgabeschicht gibt. Führt man z. B. auch Verbindungen zwischen den Neuronen in der Eingabeschicht ein, dann kann man ohne Zwischenschicht auskommen. Das hat einer unserer Studierenden, nämlich Robert Hetka (ein promovierter Arzt), gezeigt.
 
4
In den Formeln w.u. zu dreischichtigen Netzen wird in der Formel nicht mehr \(a_{j}\) eingesetzt, sondern \(o_{j}\), um deutlich zu machen, dass es sich um den Aktivierungswert des Ausgabeneurons (output j) handelt.
 
5
Eine detaillierte Darstellung der exakten Berechnung im Fall der Backpropagation-Regel findet sich z. B. in Schmidt et al. (2010).
 
6
Die Ähnlichkeit der Begriffe „Graphik“ und „Graph“ ist natürlich kein Zufall und man möge dies nicht als unfreiwilligen Kalauer missverstehen.
 
7
Dabei kann der Fall auftreten, dass bei \({\text{w}}_{{{\text{ij}}}} = 0\)  zwischen i und j keine Kante existiert, für \({\text{w}}_{{{\text{ij}}}} \ne 0\) wij jedoch eine Kante zwischen j und i. Man sieht, wie wichtig die Definition von NN als gewichtete und damit gerichtete Graphen ist.
 
8
Wir haben dies Maß aus theoretischen Gründen als MC bezeichnet, die hier nicht weiter erläutert werden können (vgl. Klüver & Klüver, 2011).
 
9
Die Enforcing Activation Function wurde von Viktor Schäfer entwickelt, die relative Funktion von Björn Zurmaar (Zurmaar, 2021).
 
10
Dazu zählen ebenso Hopfield-Netzwerke sowie ART-Netzwerke von Grossberg (Klüver & Klüver, 2022).
 
11
Es handelt sich genauer um die logistische Funktion, da die tanh ebenfalls zur Klasse der sigmoiden Funktionen gehört.
 
12
Die Darstellung der LSTM erfolgt nach dem Blog von Christopher Olah: https://​colah.​github.​io/​posts/​2015-08-Understanding-LSTMs/​ (letzter Zugriff am 21.09.2023).
 
13
Bei k-Means handelt es sich um ein partitionierend iteriertes Minimaldistanzverfahren (von der Hude, 2020).
 
14
Die Funktionsweise erinnert an BAM-Netzwerke (Kap. 7; Stoica-Klüver et al., 2009; Schmidt et al., 2010).
 
15
Mit freundlicher Genehmigung und Übermittlung der Bilder sowie der aktuellen Version (Oktober, 2023) von Dan Jurafsky und Jim Martin von der Stanford University.
 
16
Dua, D. and Graff, C. (2019). UCI Machine Learning Repository (http://​archive.​ics.​uci.​edu/​ml). Irvine, CA: University of California, School of Information and Computer Science.
 
18
Die Konfusionsmatrix wurde von Simon Matthias Busley implementiert.
 
20
Residuen spielen für Regressionsmodelle eine Rolle; es wird eine Maßzahl gesucht, die angibt, wie stark die Funktion für Vorhersagen von tatsächlichen Beobachtungen abweicht.
 
21
Promovierter Wirtschaftswissenschaftler und Gesundheitsökonom.
 
22
Wir verwenden den Begriff Optimierer, um von den Optimierungsverfahren in Kap. 4 zu unterscheiden.
 
23
Dabei handelt es sich um die Forschungsgruppe um Jeremy Howard und Rachel Thomas, die Codes und Bibliotheken für Deep Learning zur Verfügung stellen (https://​www.​fast.​ai/​about/​ – fast-ai).
 
25
Antonius Reifferscheid hat zusätzliche Optimierer untersucht, die hier nicht näher dargestellt werden.
 
26
In der Formel wird \(\alpha\) durch \(\beta\) ersetzt, um an den aktuellen Darstellungen anzupassen.
 
27
Für DRUSEN wurde offensichtlich ein Bild nicht berücksichtigt.
 
28
Studiengang Märkte und Unternehmen an der Universität Duisburg-Essen.
 
29
Es handelt sich um die „Cloud Instructor“ Option für 15 US$, mit einer Bereitstellung von 16 GB RAM und eine Vierkern-CPU.
 
31
Studiengang Digital Business – Innovation and Transformation an der Universität Duisburg-Essen.
 
32
Eine Open-Source Webanwendung, die u. A. für Modelle des Maschinellen Lernens und der Statistik verwendet wird. Es wird ein kostenloser Zugang zur Recheninfrastruktur wie Speicher, Arbeitsspeicher, Verarbeitungskapazität, Grafikprozessoren (GPUs) und Tensor Processing Units (TPUs) gewährt.
 
33
Es ist davon auszugehen, dass die Generierung von Codes durch Methoden des maschinellen Lernens zunehmen wird (Dehaerne et al., 2022).
 
34
Jetzt wird es deutlicher warum in Methoden des Maschinellen Lernens, insbesondere des Deep Learning, ergänzende Daten (Data Augmentation) benötigt werden, um eine bessere Generalisierbarkeit der Daten und damit der Klassifikation zu ermöglichen.
 
35
Die Daten entsprechen der Tab. 3.​6 aus Abschn. 3.​5.​3.​2.
 
36
Die Konstruktion einer „Optimalalternative“ hat Arndt (2023) als Entscheidungsunterstützung eingesetzt, um die Wirtschaftlichkeit von Nutzfahrzeugen im Kurier-, Express- und Paketsegment (KEP-Segment) zu bestimmen, unter dem Aspekt der Green Logistics und City Logistics. Der Vergleich wurde in diesem Fall mit der Methode „Analytic Network Process“ (ANP) durchgeführt.
 
Metadaten
Titel
Modellierung lernender Systeme durch Neuronale Netze (NN)
verfasst von
Christina Klüver
Jürgen Klüver
Jörn Schmidt
Copyright-Jahr
2024
DOI
https://doi.org/10.1007/978-3-658-43408-3_5