Skip to main content

2020 | OriginalPaper | Buchkapitel

Compress Polyphone Pronunciation Prediction Model with Shared Labels

verfasst von : Pengfei Chen, Lina Wang, Hui Di, Kazushige Ouchi, Lvhong Wang

Erschienen in: Chinese Computational Linguistics

Verlag: Springer International Publishing

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

Es ist bekannt, dass das Deep-Learning-Modell enorme Parameter hat und rechnerisch teuer ist, insbesondere für eingebettete und mobile Geräte. Die Auswahl der polyphone Aussprache ist eine grundlegende Funktion für die chinesische Text-to-Speech (TTS) -Anwendung. Die Klassifizierung von wiederkehrenden neuronalen Netzwerken (RNN) ist eine gute Lösung zur Sequenzmarkierung bei der Auswahl der polyphone Aussprache. Im Gegensatz zur bestehenden Quantisierung mit niedrigem Datenformat und Projektionsschicht schlagen wir eine neuartige Methode vor, die auf gemeinsamen Etiketten beruht und sich darauf konzentriert, die vollständig verbundene Schicht vor Softmax für Modelle mit einer riesigen Anzahl von Etiketten in der TTS-Polyphonauswahl zu komprimieren. Die Grundidee besteht darin, eine große Anzahl von Zieletiketten zu komprimieren, die die Parameter der vollständig verbundenen Schicht

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Literatur
1.
Zurück zum Zitat Grachev, A.M., Ignatov, D.I., Savchenko, A.V.: Neural networks compression for language modeling. In: Pattern Recognition and Machine Intelligence, vol. 10597 (2017) Grachev, A.M., Ignatov, D.I., Savchenko, A.V.: Neural networks compression for language modeling. In: Pattern Recognition and Machine Intelligence, vol. 10597 (2017)
2.
Zurück zum Zitat Hinton, G., Dean, J., Vinyals, O.: Distilling the knowledge in a neural network. In: NIPS Deep Learning and Representation Learning Workshop (2015) Hinton, G., Dean, J., Vinyals, O.: Distilling the knowledge in a neural network. In: NIPS Deep Learning and Representation Learning Workshop (2015)
3.
Zurück zum Zitat Lample, G., Ballesteros, M., Subramanian, S., Kawakami, K., Dyer, C.: Neural architectures for named entity recognition. In: Proceedings of NAACL-HLT, pp. 260–270 (2016) Lample, G., Ballesteros, M., Subramanian, S., Kawakami, K., Dyer, C.: Neural architectures for named entity recognition. In: Proceedings of NAACL-HLT, pp. 260–270 (2016)
4.
Zurück zum Zitat John, L., Andrew, M., Pereira, F.C.N.: Conditional random fields: probabilistic models for segmenting and labeling sequence data. In Proceedings ICML (2001) John, L., Andrew, M., Pereira, F.C.N.: Conditional random fields: probabilistic models for segmenting and labeling sequence data. In Proceedings ICML (2001)
5.
Zurück zum Zitat Courbariaux, M., Bengio, Y.: Binarynet: training deep neural networks with weights and activations constrained to +1 or -1. CoRR, vol. abs/1602.02830 (2016) Courbariaux, M., Bengio, Y.: Binarynet: training deep neural networks with weights and activations constrained to +1 or -1. CoRR, vol. abs/1602.02830 (2016)
6.
Zurück zum Zitat Abadi, M., et al.: TensorFlow: large-scale machine learning on heterogeneous systems. Software available from tensorflow.org (2015) Abadi, M., et al.: TensorFlow: large-scale machine learning on heterogeneous systems. Software available from tensorflow.org (2015)
7.
Zurück zum Zitat Hochreiter, S., Schmidhuber, J.: Long short-term memory. Neural Comput. 9(8), 1735–1780 (1997)CrossRef Hochreiter, S., Schmidhuber, J.: Long short-term memory. Neural Comput. 9(8), 1735–1780 (1997)CrossRef
8.
Zurück zum Zitat Gupta, S., Agrawal, A., Gopalakrishnan, K., Narayanan, P.: Deep learning with limited numerical precision. In: Proceedings of the 32Nd International Conference on International Conference on Machine Learning - vol. 37, ser. ICML 2015, pp. 1737–1746 (2015) Gupta, S., Agrawal, A., Gopalakrishnan, K., Narayanan, P.: Deep learning with limited numerical precision. In: Proceedings of the 32Nd International Conference on International Conference on Machine Learning - vol. 37, ser. ICML 2015, pp. 1737–1746 (2015)
9.
Zurück zum Zitat Han, S., Pool, J., Tran, J., Dally, W.J.: Learning both weights and connections for efficient neural networks. In: Proceedings of the 28th International Conference on Neural Information Processing Systems, ser. NIPS 2015 (2015) Han, S., Pool, J., Tran, J., Dally, W.J.: Learning both weights and connections for efficient neural networks. In: Proceedings of the 28th International Conference on Neural Information Processing Systems, ser. NIPS 2015 (2015)
10.
Zurück zum Zitat Chen, W., Wilson, J., Tyree, S., Weinberger, K.Q., Chen, Y.: Compressing neural networks with the hashing trick. In: JMLR Workshop and Conference Proceedings (2015) Chen, W., Wilson, J., Tyree, S., Weinberger, K.Q., Chen, Y.: Compressing neural networks with the hashing trick. In: JMLR Workshop and Conference Proceedings (2015)
11.
Zurück zum Zitat Yu, C., Wang, D., Zhou, P., Zhang, T.: A survey of model compression and acceleration for deep neural networks. In: IEEE Signal Processing Magazine, Special Issue on Deep Learning for Image Understanding (2019) Yu, C., Wang, D., Zhou, P., Zhang, T.: A survey of model compression and acceleration for deep neural networks. In: IEEE Signal Processing Magazine, Special Issue on Deep Learning for Image Understanding (2019)
12.
Zurück zum Zitat Cai, Z., Yang, Y., Zhang, C., Qin, X., Li, M.: Polyphone disambiguation for mandarin Chinese using conditional neural network with multi-level embedding features. INTERSPEECH (2019) Cai, Z., Yang, Y., Zhang, C., Qin, X., Li, M.: Polyphone disambiguation for mandarin Chinese using conditional neural network with multi-level embedding features. INTERSPEECH (2019)
Metadaten
Titel
Compress Polyphone Pronunciation Prediction Model with Shared Labels
verfasst von
Pengfei Chen
Lina Wang
Hui Di
Kazushige Ouchi
Lvhong Wang
Copyright-Jahr
2020
DOI
https://doi.org/10.1007/978-3-030-63031-7_29