Skip to main content

2024 | OriginalPaper | Buchkapitel

3. Energy-Efficient NN Processor by Optimizing Data Reuse for Specific Convolutional Kernels

verfasst von : Jinshan Yue

Erschienen in: High Energy Efficiency Neural Network Processor with Combined Digital and Computing-in-Memory Architecture

Verlag: Springer Nature Singapore

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

Das Kapitel geht auf die Eigenschaften der Wiederverwendung von Daten digitaler ASIC NN-Prozessoren ein und stellt die KOP3-Architektur vor, die für bestimmte konvolutionale Kernel-Größen optimiert ist. Durch den Tausch von Flexibilität gegen Energieeffizienz erreicht KOP3 eine Verbesserung der Energieeffizienz um 4,0 im Vergleich zu früheren Arbeiten. Das Kapitel stellt außerdem innovative Strategien zur Datenplanung und parallele Befehlssätze auf Modulebene vor, um die Nutzung von Rechenressourcen zu verbessern. Experimentelle Ergebnisse zeigen die überlegene Energieeffizienz und Leistung von KOP3, was es zu einer überzeugenden Lösung für stromsparende intelligente Geräte macht.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Literatur
1.
Zurück zum Zitat Chen Y-H, Krishna T, Emer J, Sze V (2016) 14.5 Eyeriss: an energy-efficient reconfigurable accelerator for deep convolutional neural networks. In: 2016 IEEE international solid-state circuits conference (ISSCC). IEEE, pp 262–264 Chen Y-H, Krishna T, Emer J, Sze V (2016) 14.5 Eyeriss: an energy-efficient reconfigurable accelerator for deep convolutional neural networks. In: 2016 IEEE international solid-state circuits conference (ISSCC). IEEE, pp 262–264
2.
Zurück zum Zitat Moons B, Uytterhoeven R, Dehaene W, Verhelst M (2017). 14.5 ENVISION: a 0.26-to-10 TOPS/W subword-parallel dynamic-voltage-accuracy-frequency-scalable convolutional neural network processor in 28 nm FDSOI. In: 2017 IEEE international solid-state circuits conference (ISSCC). IEEE, pp 246, 247 Moons B, Uytterhoeven R, Dehaene W, Verhelst M (2017). 14.5 ENVISION: a 0.26-to-10 TOPS/W subword-parallel dynamic-voltage-accuracy-frequency-scalable convolutional neural network processor in 28 nm FDSOI. In: 2017 IEEE international solid-state circuits conference (ISSCC). IEEE, pp 246, 247
3.
Zurück zum Zitat Yuan Z, Yue J, Yang H, Wang Z, Li J, Yang Y, Guo Q, Li X, Chang M-F, Yang H et al (2018) STICKER: a 0.41–62.1 TOPS/W 8 bit neural network processor with multi-sparsity compatible convolution arrays and online tuning acceleration for fully connected layers. In: 2018 IEEE symposium on VLSI circuits. IEEE, pp 33–34 Yuan Z, Yue J, Yang H, Wang Z, Li J, Yang Y, Guo Q, Li X, Chang M-F, Yang H et al (2018) STICKER: a 0.41–62.1 TOPS/W 8 bit neural network processor with multi-sparsity compatible convolution arrays and online tuning acceleration for fully connected layers. In: 2018 IEEE symposium on VLSI circuits. IEEE, pp 33–34
4.
Zurück zum Zitat Chen T, Du Z, Sun N, Wang J, Wu C, Chen Y, Temam O (2014) Diannao: a small-footprint high-throughput accelerator for ubiquitous machine-learning. In: Proceedings of the 19th international conference on architectural support for programming languages and operating systems, pp 269–284 Chen T, Du Z, Sun N, Wang J, Wu C, Chen Y, Temam O (2014) Diannao: a small-footprint high-throughput accelerator for ubiquitous machine-learning. In: Proceedings of the 19th international conference on architectural support for programming languages and operating systems, pp 269–284
6.
Zurück zum Zitat Yue J, Liu Y, Yuan Z, Wang Z, Guo Q, Li J, Yang C, Yang H (2018) A 3.77 tops/w convolutional neural network processor with priority-driven kernel optimization. IEEE Trans Circ Syst II Express Briefs 66(2):277–281 Yue J, Liu Y, Yuan Z, Wang Z, Guo Q, Li J, Yang C, Yang H (2018) A 3.77 tops/w convolutional neural network processor with priority-driven kernel optimization. IEEE Trans Circ Syst II Express Briefs 66(2):277–281
7.
Zurück zum Zitat Pullini A, Conti F, Rossi D, Loi I, Gautschi M, Benini L (2017) A heterogeneous multicore system on chip for energy efficient brain inspired computing. IEEE Trans Circ Syst II Express Briefs 65(8):1094–1098 Pullini A, Conti F, Rossi D, Loi I, Gautschi M, Benini L (2017) A heterogeneous multicore system on chip for energy efficient brain inspired computing. IEEE Trans Circ Syst II Express Briefs 65(8):1094–1098
8.
Zurück zum Zitat Du Z, Fasthuber R, Chen T, Ienne P, Li L, Luo T, Feng X, Chen Y, Temam O (2015) Shidiannao: shifting vision processing closer to the sensor. In: Proceedings of the 42nd annual international symposium on computer architecture, pp 92–104 Du Z, Fasthuber R, Chen T, Ienne P, Li L, Luo T, Feng X, Chen Y, Temam O (2015) Shidiannao: shifting vision processing closer to the sensor. In: Proceedings of the 42nd annual international symposium on computer architecture, pp 92–104
9.
Zurück zum Zitat Krizhevsky A, Sutskever I, Hinton GE (2012) ImageNet classification with deep convolutional neural networks. In: Advances in neural information processing systems, pp 1097–1105 Krizhevsky A, Sutskever I, Hinton GE (2012) ImageNet classification with deep convolutional neural networks. In: Advances in neural information processing systems, pp 1097–1105
10.
Zurück zum Zitat He K, Zhang X, Ren S, Sun J (2016) Deep residual learning for image recognition. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 770–778 He K, Zhang X, Ren S, Sun J (2016) Deep residual learning for image recognition. In: Proceedings of the IEEE conference on computer vision and pattern recognition, pp 770–778
11.
Zurück zum Zitat Yuan Z, Liu Y, Yue J, Li J, Yang H (2017) Coral: coarse-grained reconfigurable architecture for convolutional neural networks. In: 2017 IEEE/ACM international symposium on low power electronics and design (ISLPED). IEEE, pp 1–6 Yuan Z, Liu Y, Yue J, Li J, Yang H (2017) Coral: coarse-grained reconfigurable architecture for convolutional neural networks. In: 2017 IEEE/ACM international symposium on low power electronics and design (ISLPED). IEEE, pp 1–6
Metadaten
Titel
Energy-Efficient NN Processor by Optimizing Data Reuse for Specific Convolutional Kernels
verfasst von
Jinshan Yue
Copyright-Jahr
2024
Verlag
Springer Nature Singapore
DOI
https://doi.org/10.1007/978-981-97-3477-1_3