2019 | OriginalPaper | Buchkapitel
Tipp
Weitere Kapitel dieses Buchs durch Wischen aufrufen
Erschienen in:
Statistisches und maschinelles Lernen
Neuronale Netzwerke bilden eine flexible Funktionenklasse zur Approximation von stetigen Funktionen. Sie können sowohl in Klassifikations- als auch Regressionsproblemen genutzt werden. Das Kapitel beschäftigt sich hauptsächlich mit sogenannten fully connected neural networks, und motiviert diese Klasse zunächst mit der Vereinfachung der Eingangsdaten in mehreren Schritten. Danach erfolgt eine Formalisierung der Funktionenklasse und es wird die typische anschauliche Darstellung anhand von Diagrammen eingeführt. Die Ermittlung des zugehörigen Algorithmus kann durch ein Optimierungsproblem ausgedrückt werden, dessen Lösung näherungsweise mit Hilfe von Gradientenverfahren diskutiert und ausgeführt wird. Die Qualität des Algorithmus wird an Beispielen und theoretischen Resultaten gezeigt. Am Ende des Kapitels erfolgt ein Ausblick auf komplexere neuronale Netzwerke, die derzeit in der Praxis verwendet werden, für die aber zum derzeitigen Stand noch keine statistischen Resultate bewiesen sind.
Bitte loggen Sie sich ein, um Zugang zu diesem Inhalt zu erhalten
Sie möchten Zugang zu diesem Inhalt erhalten? Dann informieren Sie sich jetzt über unsere Produkte:
Anzeige
- Titel
- Neuronale Netzwerke
- DOI
- https://doi.org/10.1007/978-3-662-59354-7_7
- Autor:
-
Stefan Richter
- Verlag
- Springer Berlin Heidelberg
- Sequenznummer
- 7
- Kapitelnummer
- Kapitel 7