Skip to main content
Erschienen in: Neural Processing Letters 1/2022

08.09.2021

Truncation: A New Approach to Neural Network Reduction

verfasst von: Alexey A. Nevzorov, Sergey V. Perchenko, Dmitry A. Stankevich

Erschienen in: Neural Processing Letters | Ausgabe 1/2022

Einloggen

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

In this manuscript, the method for optimizing the number of neurons in the hidden layer of multilayer neural network is proposed. The described method is similar to dropout: we exclude some neurons during training, but the probability of neuron exclusion depends on its position in the layer. In the result of training the neurons at beginning of layer have a stronger connections with the next layer and they make the main contribution to the result. Neurons at the end of layer have weak connections to the next layer and can be excluded for further application of the network. On the examples of fully-connected and convolutional neural networks with one and multiple hidden layers we show, that proposed method allow us to obtain dependence of network accuracy on the number of neurons in layer after one cycle of training and also performs some regularization. For example, we applied the method to a four-layer convolutional network and reduced the layer sizes from (50, 50, 100, 100) to (36, 36, 74, 56) without losing accuracy.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Literatur
3.
Zurück zum Zitat Haykin S (2009) Neural networks and learning machines. Pearson Education, New Jersey Haykin S (2009) Neural networks and learning machines. Pearson Education, New Jersey
4.
Zurück zum Zitat Le Cun Y, Denker JS, Solla SA (1990) Optimal brain damage. Neural Information Processing Systems Le Cun Y, Denker JS, Solla SA (1990) Optimal brain damage. Neural Information Processing Systems
5.
Zurück zum Zitat Louizos C, Welling M, Kingma DP (2018) Learning sparse neural networks through \(\rm L_0\) regularization. 6th international conference on learning representations Louizos C, Welling M, Kingma DP (2018) Learning sparse neural networks through \(\rm L_0\) regularization. 6th international conference on learning representations
6.
Zurück zum Zitat He Y, Zhang X, SunJ (2017) Channel pruning for accelerating very deep neural networks. Proceedings of the IEEE international conference on computer vision He Y, Zhang X, SunJ (2017) Channel pruning for accelerating very deep neural networks. Proceedings of the IEEE international conference on computer vision
7.
Zurück zum Zitat Srivastava N, Hinton G, Krizhevsky A, Sutskever I, Salakhutdinov R (2014) Dropout: a simple way to prevent neural networks from overfitting. J Mach Learn Res 15:1929–1958MathSciNetMATH Srivastava N, Hinton G, Krizhevsky A, Sutskever I, Salakhutdinov R (2014) Dropout: a simple way to prevent neural networks from overfitting. J Mach Learn Res 15:1929–1958MathSciNetMATH
8.
Zurück zum Zitat Kingma D, Ba J (2014) Adam: a method for stochastic optimization. 3rd international conference on learning representations Kingma D, Ba J (2014) Adam: a method for stochastic optimization. 3rd international conference on learning representations
Metadaten
Titel
Truncation: A New Approach to Neural Network Reduction
verfasst von
Alexey A. Nevzorov
Sergey V. Perchenko
Dmitry A. Stankevich
Publikationsdatum
08.09.2021
Verlag
Springer US
Erschienen in
Neural Processing Letters / Ausgabe 1/2022
Print ISSN: 1370-4621
Elektronische ISSN: 1573-773X
DOI
https://doi.org/10.1007/s11063-021-10638-z

Weitere Artikel der Ausgabe 1/2022

Neural Processing Letters 1/2022 Zur Ausgabe

Neuer Inhalt