Skip to main content

2019 | OriginalPaper | Buchkapitel

A Multitask Learning Neural Network for Short-Term Traffic Speed Prediction and Confidence Estimation

verfasst von : Yanyun Tao, Xiang Wang, Yuzhen Zhang

Erschienen in: Artificial Neural Networks and Machine Learning – ICANN 2019: Deep Learning

Verlag: Springer International Publishing

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

To improve predictive accuracy on short-term traffic speed, we proposed a multitask learning neural network (MLNN). MLNN carries out the speed prediction task for three short-terms by the combination of convolution neural network (CNN) and gated recurrent units’ network (GRU), and accomplishes the confidence estimation task on predicted speed with the confidence network. A multitask loss function with weighted sub loss terms for multitask learning is employed. In the experiment, our method was tested on the data set of Shanghai Expressway at 2014. Conventional methods such as auto-regressive integrated moving average (ARIMA) and Gaussian maximum likelihood (GML), and time series models, recurrent neural network (RNN), GRU and long short-term memory (LSTM), were also used to compare. The results show that MLNN with square loss obtained the smallest mean squared error (MSE) on most cases. For four road types, MLNN obtained the overall smallest mean absolute percentage error (MAPE) on these cases. We also proved that as compared to single-term prediction, multitask learning outperformed 12.4% in MSE and 9.91% in MAPE for 10-min and 15-min prediction. To improve the forecast on low speed, MAP-loss term is additionally used in multitask loss function. It efficiently improved the predictive accuracy on low speed. The confidence estimation network gave a 89.93% estimation accuracy on the predicted speed, efficiently avoiding the inaccurate speed prediction.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Literatur
11.
Zurück zum Zitat Cui, Z., Ke, R., Wang, Y.: Deep bidirectional and unidirectional LSTM recurrent neural network for network-wide traffic speed prediction (2018). arXiv:1801.02143 Cui, Z., Ke, R., Wang, Y.: Deep bidirectional and unidirectional LSTM recurrent neural network for network-wide traffic speed prediction (2018). arXiv:​1801.​02143
16.
Zurück zum Zitat Gal, Y.: Uncertainty in deep learning, Ph.D. dissertation, Ph.D thesis, University of Cambridge (2016) Gal, Y.: Uncertainty in deep learning, Ph.D. dissertation, Ph.D thesis, University of Cambridge (2016)
Metadaten
Titel
A Multitask Learning Neural Network for Short-Term Traffic Speed Prediction and Confidence Estimation
verfasst von
Yanyun Tao
Xiang Wang
Yuzhen Zhang
Copyright-Jahr
2019
DOI
https://doi.org/10.1007/978-3-030-30484-3_36