Skip to main content
Top

2021 | OriginalPaper | Chapter

12. Flache Neuronale Netze für die Klassifizierung

(Shallow Neural Networks for Clasifications)

Author : Martin Werner

Published in: Digitale Bildverarbeitung

Publisher: Springer Fachmedien Wiesbaden

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Künstliche neuronale Netze ahmen die vernetzte Struktur der Nervenzellen im Gehirn und deren Arbeitsweise nach. Relativ einfache künstliche neuronale Strukturen, flache neuronale Netze genannt, erbringen erstaunliche Leistungen bei der Klassifizierung von Objekten. Damit das gelingt, wird das neuronale Netz anhand von bekannten Daten trainiert. MATLAB unterstützt die Mustererkennung und Klassifizierung mit den Funktionen patternnet, train und net. Mit ihnen werden flache neuronale Netze implementieren, die zur Merkmalserkennung in der Bildverarbeitung eingesetzt werden.

Dont have a licence yet? Then find out more about our products and how to get one now:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Appendix
Available only for authorised users
Footnotes
1
Rosenblatt zeigte 1958, dass das einfache Perzeptron die logischen Operationen AND, OR und NOT ausführen kann. In der Aussagelogik wird jedoch auch das XOR benötigt, um alle Verknüpfungen der Boolschen Logik zu erlernen.
 
2
Wegen des natürlichen Logarithmus in der Formel werden die KLD und die weiteren Größen hier in der Pseudoeinheit „nat“ gemessen.
 
3
Mit der Ungleichung von Kraft kann gezeigt werden, dass die Divergenz nicht negativ ist und der Wert 0 nur bei der Gleichheit der Verteilungen angenommen wird.
 
4
mit\(\mathop {\lim }\limits_{x \to 0} x \cdot \ln \left( x \right) = 0\)
 
Literature
go back to reference Beale, M. H., Hagan, M. T., & Demuth, H. B. (2018). Neural network toolbox. Getting started guide. Natick, MA: The MathWorks. Beale, M. H., Hagan, M. T., & Demuth, H. B. (2018). Neural network toolbox. Getting started guide. Natick, MA: The MathWorks.
go back to reference Bronstein, I. N., Semendjajew, K. A., Musiol, G., & Mühlig, H. (1999). Taschenbuch der Mathematik (4. Aufl.). Frankfurt a. M.: Harri Deutsch.MATH Bronstein, I. N., Semendjajew, K. A., Musiol, G., & Mühlig, H. (1999). Taschenbuch der Mathematik (4. Aufl.). Frankfurt a. M.: Harri Deutsch.MATH
go back to reference Gonzalez, R. C., & Woods, R. E. (2018). Digital image processing (4. Aufl.). Harlow, Essex (UK): Pearson Education. Gonzalez, R. C., & Woods, R. E. (2018). Digital image processing (4. Aufl.). Harlow, Essex (UK): Pearson Education.
go back to reference Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. Cambridge, MA: MIT Press.MATH Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. Cambridge, MA: MIT Press.MATH
go back to reference Hedderich, J., & Sachs, L. (2016). Angewandte Statistik. Methodensammlung mit R (15. Aufl.). Berlin: Springer Spektrum.MATH Hedderich, J., & Sachs, L. (2016). Angewandte Statistik. Methodensammlung mit R (15. Aufl.). Berlin: Springer Spektrum.MATH
go back to reference Kullback, S., & Leibler, R. A. (1951). On information and sufficiency. Annals of Mathematical Statistics, 22(1), 79–86.MathSciNetCrossRef Kullback, S., & Leibler, R. A. (1951). On information and sufficiency. Annals of Mathematical Statistics, 22(1), 79–86.MathSciNetCrossRef
go back to reference Rey, G. D., & Wender, K. F. (2018). Neuronale Netze. Eine Einführung in die Grundlagen, Anwendungen und Datenauswertung (3. Aufl.). Bern: Hogrefe. Rey, G. D., & Wender, K. F. (2018). Neuronale Netze. Eine Einführung in die Grundlagen, Anwendungen und Datenauswertung (3. Aufl.). Bern: Hogrefe.
go back to reference Rosenblatt, F. (1958). The perception – A probabilistic model for information storage and organization in the brain. Pychological Review, 65(6), 386–408.CrossRef Rosenblatt, F. (1958). The perception – A probabilistic model for information storage and organization in the brain. Pychological Review, 65(6), 386–408.CrossRef
go back to reference Shannon, C. E. (1948). A mathematical theory of communication. The Bell system technical journal, 27(3), 379–423. Shannon, C. E. (1948). A mathematical theory of communication. The Bell system technical journal, 27(3), 379–423.
Metadata
Title
Flache Neuronale Netze für die Klassifizierung
Author
Martin Werner
Copyright Year
2021
DOI
https://doi.org/10.1007/978-3-658-22185-0_12