Skip to main content
Erschienen in:

15.02.2024 | Connected Automated Vehicles and ITS

Reinforcement-Tracking: An End-to-End Trajectory Tracking Method Based on Self-Attention Mechanism

verfasst von: Guanglei Zhao, Zihao Chen, Weiming Liao

Erschienen in: International Journal of Automotive Technology | Ausgabe 3/2024

Einloggen

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

Der Artikel stellt eine bahnbrechende Methode zur Flugbahnverfolgung für unbemannte Bodenfahrzeuge (UGVs) vor, die einen Mechanismus der Selbstaufmerksamkeit und Dueling Double Deep Q-Netzwerke (DDQN) nutzt. Es befasst sich mit den Herausforderungen der Flugbahnverfolgung in der autonomen Navigation, wie nichtholonomischen Beschränkungen und Leistungsbeschränkungen von Aktuatoren. Die Methode verwendet eine Politik der dichten Belohnung und eine Methode des Gitterdiagramms bei der Extraktion des Aktionsraums, um eine bessere diskrete Kontrolle und schnellere Trainingszeiten zu erreichen. Experimentelle Vergleiche zeigen, dass dieser Ansatz herkömmlichen Methoden wie der reinen Verfolgung und dem MPC in Bezug auf Reaktionszeit und Querfehler überlegen ist, obwohl er möglicherweise weiterer Verfeinerung bei der Fehlerkontrolle bedarf.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

ATZelectronics worldwide

ATZlectronics worldwide is up-to-speed on new trends and developments in automotive electronics on a scientific level with a high depth of information. 

Order your 30-days-trial for free and without any commitment.

Weitere Produktempfehlungen anzeigen
Literatur
Zurück zum Zitat Bellman, R. (1957). A markovian decision process. Journal of Mathematics and Mechanics, 6(5), 679–684.MathSciNet Bellman, R. (1957). A markovian decision process. Journal of Mathematics and Mechanics, 6(5), 679–684.MathSciNet
Zurück zum Zitat Chen, J., Li, S. E., & Tomizuka, M. (2022). Interpretable end-to-end urban autonomous driving with latent deep reinforcement learning. IEEE Transactions on Intelligent Transportation Systems, 23(6), 5068–5078.CrossRef Chen, J., Li, S. E., & Tomizuka, M. (2022). Interpretable end-to-end urban autonomous driving with latent deep reinforcement learning. IEEE Transactions on Intelligent Transportation Systems, 23(6), 5068–5078.CrossRef
Zurück zum Zitat François-Lavet, V., Henderson, P., Islam, R., Bellemare, M. G., & Pineau, J. (2018). An introduction to deep reinforcement learning. Morgan & Claypool. Now Publishers Inc.CrossRef François-Lavet, V., Henderson, P., Islam, R., Bellemare, M. G., & Pineau, J. (2018). An introduction to deep reinforcement learning. Morgan & Claypool. Now Publishers Inc.CrossRef
Zurück zum Zitat Hilleli, B., & El-Yaniv, R. (2018). Toward deep reinforcement learning without a simulator: An autonomous steering example. In Proceedings of the AAAI Conference on Artificial Intelligence, 32, 1471–1478.CrossRef Hilleli, B., & El-Yaniv, R. (2018). Toward deep reinforcement learning without a simulator: An autonomous steering example. In Proceedings of the AAAI Conference on Artificial Intelligence, 32, 1471–1478.CrossRef
Zurück zum Zitat Hu, G., Zhang, W., & Zhu, W. (2021). Prioritized experience replay for continual learning. 6th International Conference on Computational Intelligence and Applications. pp. 16–20. Hu, G., Zhang, W., & Zhu, W. (2021). Prioritized experience replay for continual learning. 6th International Conference on Computational Intelligence and Applications. pp. 16–20.
Zurück zum Zitat Huang, Z., J. Zhang, R. Tian, and Y. Zhang, (2019). End-to-end autonomous driving decision based on deep reinforcement learning. In 2019 5th International Conference on Control, Automation and Robotics (ICCAR). pp. 658–662. Huang, Z., J. Zhang, R. Tian, and Y. Zhang, (2019). End-to-end autonomous driving decision based on deep reinforcement learning. In 2019 5th International Conference on Control, Automation and Robotics (ICCAR). pp. 658–662.
Zurück zum Zitat Kiran, B. R., Sobh, I., Talpaert, V., Mannion, P., Sallab, A. A. A., & Yogamani, S. (2022). Deep reinforcement learning for autonomous driving: A survey. IEEE Transactions on Intelligent Trans- Portation Systems, 23(6), 4909–4926.CrossRef Kiran, B. R., Sobh, I., Talpaert, V., Mannion, P., Sallab, A. A. A., & Yogamani, S. (2022). Deep reinforcement learning for autonomous driving: A survey. IEEE Transactions on Intelligent Trans- Portation Systems, 23(6), 4909–4926.CrossRef
Zurück zum Zitat Koenig, N., & Howard, A. (2004). Design and use paradigms for gazebo, an open-source multi-robot simulator. In 2004 IEEE/RSJ International Con- ference on Intelligent Robots and Systems (IROS) (IEEE Cat. No.04CH37566). 3: 2149–2154. Koenig, N., & Howard, A. (2004). Design and use paradigms for gazebo, an open-source multi-robot simulator. In 2004 IEEE/RSJ International Con- ference on Intelligent Robots and Systems (IROS) (IEEE Cat. No.04CH37566). 3: 2149–2154.
Zurück zum Zitat Pivtoraiko, M., Knepper, R. A., & Kelly, A. (2009). Differentially constrained mobile robot motion planning in state lattices. Journal of Field Robotics, 26(3), 308–333.CrossRef Pivtoraiko, M., Knepper, R. A., & Kelly, A. (2009). Differentially constrained mobile robot motion planning in state lattices. Journal of Field Robotics, 26(3), 308–333.CrossRef
Zurück zum Zitat Rafiei, A.., Fasakhodi, A. O., & Hajati, F. (2022). Pedestrian collision avoidance using deep rein- forcement learning. International Journal of Auto- Motive Technology, 23(3), 613–622.CrossRef Rafiei, A.., Fasakhodi, A. O., & Hajati, F. (2022). Pedestrian collision avoidance using deep rein- forcement learning. International Journal of Auto- Motive Technology, 23(3), 613–622.CrossRef
Zurück zum Zitat Van Hasselt, H., A. Guez, and D. Silver, (2016). Deep reinforcement learning with double Q-learning. In Proceedings of the AAAI Conference on Artificial Intelligence. Pp. 2094–2100. Van Hasselt, H., A. Guez, and D. Silver, (2016). Deep reinforcement learning with double Q-learning. In Proceedings of the AAAI Conference on Artificial Intelligence. Pp. 2094–2100.
Zurück zum Zitat Wang, Z., Schaul, T., Hessel, M., van Hasselt, H., Lanctot, M., & de Freitas, N. (2016). Dueling net-work architectures for deep reinforcement learning. International Conference on Machine Learning. pp. 1995–2003. Wang, Z., Schaul, T., Hessel, M., van Hasselt, H., Lanctot, M., & de Freitas, N. (2016). Dueling net-work architectures for deep reinforcement learning. International Conference on Machine Learning. pp. 1995–2003.
Zurück zum Zitat Yang, G., Zhu, C., & Zhang, Y. (2023). A Self-Training Framework Based on Multi-Scale Attention Fusion for Weakly Supervised Semantic Segmentation, IEEE International Conference on Multimedia and Expo. pp. 876–881. Yang, G., Zhu, C., & Zhang, Y. (2023). A Self-Training Framework Based on Multi-Scale Attention Fusion for Weakly Supervised Semantic Segmentation, IEEE International Conference on Multimedia and Expo. pp. 876–881.
Zurück zum Zitat Zhou, S.,Liu, X., Xu, Y., & Guo, J. (2018). A Deep Q-network (DQN) Based Path Planning Method for Mobile Robots, IEEE International Conference on Information and Automation. pp. 366–371. Zhou, S.,Liu, X., Xu, Y., & Guo, J. (2018). A Deep Q-network (DQN) Based Path Planning Method for Mobile Robots, IEEE International Conference on Information and Automation. pp. 366–371.
Metadaten
Titel
Reinforcement-Tracking: An End-to-End Trajectory Tracking Method Based on Self-Attention Mechanism
verfasst von
Guanglei Zhao
Zihao Chen
Weiming Liao
Publikationsdatum
15.02.2024
Verlag
The Korean Society of Automotive Engineers
Erschienen in
International Journal of Automotive Technology / Ausgabe 3/2024
Print ISSN: 1229-9138
Elektronische ISSN: 1976-3832
DOI
https://doi.org/10.1007/s12239-024-00043-5