Skip to main content

2021 | OriginalPaper | Buchkapitel

11. Künstliche Neuronen und Lernen

Artificial Neurons and Learning

verfasst von : Martin Werner

Erschienen in: Digitale Bildverarbeitung

Verlag: Springer Fachmedien Wiesbaden

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Zusammenfassung

Künstliche neuronale Netze ahmen die vernetzte Struktur der Nervenzellen im Gehirn und deren Arbeitsweise nach. Das Perzeptron steht für eine relativ einfache künstliche neuronale Struktur, die bereits erstaunliche Leistungen bei der Klassifizierung von Objekten aufgrund weniger Merkmale erbringen kann. Damit das gelingt, werden künstliche Neuronen anhand von bekannten Daten trainiert, z. B. mit einem beschleunigten LMSE-Algorithmus. Der Lernfortschritt wird mit der Lernkurve überwacht und die Entscheidungsfindung im Merkmalsraum sichtbar.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Anhänge
Nur mit Berechtigung zugänglich
Fußnoten
1
Damit verbunden mag die Hoffnung sein, dass AI zukünftig in der Lage ist, die Softwarekrise zu beenden: IT-Systeme programmieren sich selbst und auch noch fehlerfrei.
 
2
Im Klassifizierungsalgorithmus findet keine pixelweise Verarbeitung der Bilder statt. Stattdessen werden beispielsweise geometrische Merkmale von Objekten, wie Längen, Breiten, Umfang, Signaturen, Flächen, höhere statistische Momente u. v. a. m. benutzt (Gonzalez und Woods 2018).
 
3
Genau genommen geht man einen Schritt zurück, was das vorausgesetzte Wissen angeht.
 
4
Mit fortschreitender Entwicklung der technischen AI-Systeme wird die Ähnlichkeit immer geringer. Ein charakteristisches Merkmal des menschlichen Gehirns ist seine Plastizität bis ins hohe Lebensalter. Das heißt, einen Schaltplan gibt es nicht − das Gehirn verändert quasi kontinuierliche seine Struktur.
 
5
Frank Rosenblatt (1928−1971), US-amerikanischer Psychologe.
 
6
Vgl. lineares Regressionsmodell, d. h. Vorhersage der Ausprägung eines Merkmals aufgrund der Ausprägungen anderer Merkmale (Eid et al. 2015; Goodfellow et al. 2016). Der Gewichtsvektor w enthält die Regressionskoeffizienten zur Vorhersage von Merkmal z durch die Merkmale a.
 
7
Warren Sturgis McCulloch (1898−1969), US-amerikanischer Neurophysiologe und Kybernetiker.
 
8
Walter Pitts (1923−1969), US-amerikanischer Kognitionspsychologe.
 
9
Man spricht von „online processing“ im Sinne von laufend oder schritthaltend. Im Gegensatz dazu wird beim „batch processing“ (Stapelverarbeitung) die Anpassung erst nach Abarbeiten des Stapels im Sinne eines Mittelwerts vorgenommen.
 
10
Donald Olding Hebb (1904–1985), kanadischer Psychologe, Hebb-Regel 1949.
 
11
Beispielsweise könnte bei der automatischen Bestimmung von Pflanzen die Merkmale Blattlänge und Blattbreite in Zentimetern herangezogen werden. Oder andere Klassenparameter könnten vorab in einer Klassenanalyse („cluster analysis“) bestimmt worden sein.
 
12
Bei binären Zielvariablen (Sollwert 0 oder 1) und Wahrscheinlichkeiten als Ergebnisse, kann die Kreuzentropie („cross-entropy function“) als Alternative zum MSE eingesetzt werden (Kap. 12).
 
Literatur
Zurück zum Zitat Birbaumer, N., & Schmidt, R. F. (2010). Biologische psychologie (7. Aufl.). Heidelberg: Springer.CrossRef Birbaumer, N., & Schmidt, R. F. (2010). Biologische psychologie (7. Aufl.). Heidelberg: Springer.CrossRef
Zurück zum Zitat Braun, H. (1997). Neuronale netze. Optimierung durch lernen und evolution. Berlin: Springer.CrossRef Braun, H. (1997). Neuronale netze. Optimierung durch lernen und evolution. Berlin: Springer.CrossRef
Zurück zum Zitat Bronstein, I. N., Semendjajew, K. A., Musiol, G., & Mühlig, H. (1999). Taschenbuch der mathematik (4. Aufl.). Frankfurt a. M.: Harri Deutsch.MATH Bronstein, I. N., Semendjajew, K. A., Musiol, G., & Mühlig, H. (1999). Taschenbuch der mathematik (4. Aufl.). Frankfurt a. M.: Harri Deutsch.MATH
Zurück zum Zitat Eid, M., Gollwitzer, M., & Schmitt, M. (2015). Statistik und forschungsmethoden (4. Aufl.). Weinheim: Beltz. Eid, M., Gollwitzer, M., & Schmitt, M. (2015). Statistik und forschungsmethoden (4. Aufl.). Weinheim: Beltz.
Zurück zum Zitat Gonzalez, R. C., & Woods, R. E. (2018). Digital image processing (4. Aufl.). Harlow, Essex (UK): Pearson Education. Gonzalez, R. C., & Woods, R. E. (2018). Digital image processing (4. Aufl.). Harlow, Essex (UK): Pearson Education.
Zurück zum Zitat Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. Cambridge, MA: MIT Press.MATH Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. Cambridge, MA: MIT Press.MATH
Zurück zum Zitat Grävemeyer, A. (2020). Autos sehen Gespenster. Pixelmuster irritieren die KI autonomer Fahrzeuge. c’t – magazin für computertechnik, 17, 126–129. Grävemeyer, A. (2020). Autos sehen Gespenster. Pixelmuster irritieren die KI autonomer Fahrzeuge. c’t – magazin für computertechnik, 17, 126–129.
Zurück zum Zitat Hedderich, J., & Sachs, L. (2016). Angewandte statistik. Methodensammlung mit R (15. Aufl.). Berlin: Springer Spektrum.MATH Hedderich, J., & Sachs, L. (2016). Angewandte statistik. Methodensammlung mit R (15. Aufl.). Berlin: Springer Spektrum.MATH
Zurück zum Zitat Jacobs, R. A. (1988). Increased rates of convergence through learning rate adaption. Neuronal Networks, 1, 295–307.CrossRef Jacobs, R. A. (1988). Increased rates of convergence through learning rate adaption. Neuronal Networks, 1, 295–307.CrossRef
Zurück zum Zitat McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical biophysics, 5, 115–133.MathSciNetCrossRef McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical biophysics, 5, 115–133.MathSciNetCrossRef
Zurück zum Zitat Rey, G. D., & Wender, K. F. (2018). Neuronale netze. Eine einführung in die grundlagen, anwendungen und datenauswertung (3. Aufl.). Bern: Hogrefe. Rey, G. D., & Wender, K. F. (2018). Neuronale netze. Eine einführung in die grundlagen, anwendungen und datenauswertung (3. Aufl.). Bern: Hogrefe.
Zurück zum Zitat Rosenblatt, F. (1958). The perception – A probabilistic model for information storage and organization in the brain. Pychological Review, 65(6), 386–408.CrossRef Rosenblatt, F. (1958). The perception – A probabilistic model for information storage and organization in the brain. Pychological Review, 65(6), 386–408.CrossRef
Zurück zum Zitat Schandry, R. (2006). Biologische psychologie (2. Aufl.). Weinheim: Beltz Verlag. Schandry, R. (2006). Biologische psychologie (2. Aufl.). Weinheim: Beltz Verlag.
Zurück zum Zitat Werner, M. (2008). Digitale Signalverarbeitung mit MATLAB-Praktikum. Zustandsraumdarstellung, Lattice-Strukturen, Prädiktion und adaptive Filter. Wiesbaden: Vieweg. Werner, M. (2008). Digitale Signalverarbeitung mit MATLAB-Praktikum. Zustandsraumdarstellung, Lattice-Strukturen, Prädiktion und adaptive Filter. Wiesbaden: Vieweg.
Metadaten
Titel
Künstliche Neuronen und Lernen
verfasst von
Martin Werner
Copyright-Jahr
2021
DOI
https://doi.org/10.1007/978-3-658-22185-0_11

Neuer Inhalt