Skip to main content
Erschienen in: Multimedia Systems 3/2019

30.01.2019 | Regular Paper

Visual node prediction for visual tracking

verfasst von: Heng Yuan, Wen-Tao Jiang, Wan-Jun Liu, Sheng-Chong Zhang

Erschienen in: Multimedia Systems | Ausgabe 3/2019

Einloggen

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

A novel visual tracking algorithm based on visual node (VN) prediction is proposed in this paper. First, we count the distribution area and gray levels of the larger probability density in the VN. Then, all the frequencies of the VN are calculated, of which the weaker frequency gradient is removed by filtration. The stronger frequency gradient of the VN is reserved. Finally, we estimate the optimal object position by maximizing the likelihood of node clusters, which are formed by VNs. Extensive experiments show that the proposed approach has good adaptability to variable-structure tracking and outperforms the state-of-the-art trackers.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Anhänge
Nur mit Berechtigung zugänglich
Literatur
1.
Zurück zum Zitat Marco, P., Radu, T., Tinne, T., et al.: An elastic deformation field model for object detection and tracking. Int. J. Comput. Vis. 111(2), 137–152 (2015)CrossRef Marco, P., Radu, T., Tinne, T., et al.: An elastic deformation field model for object detection and tracking. Int. J. Comput. Vis. 111(2), 137–152 (2015)CrossRef
2.
Zurück zum Zitat Christophe, G., Séverine, D.: Combinatorial resampling particle filter: an effective and efficient method for articulated object tracking. Int. J. Comput. Vis. 112(3), 255–284 (2015)CrossRefMATH Christophe, G., Séverine, D.: Combinatorial resampling particle filter: an effective and efficient method for articulated object tracking. Int. J. Comput. Vis. 112(3), 255–284 (2015)CrossRefMATH
3.
Zurück zum Zitat Rapuru, M., Kakanuru, S., Venugopal, P., et al.: Correlation based tracker level fusion for robust visual tracking. IEEE Trans. Image Process. 26(10), 4832–4842 (2017)MathSciNetCrossRefMATH Rapuru, M., Kakanuru, S., Venugopal, P., et al.: Correlation based tracker level fusion for robust visual tracking. IEEE Trans. Image Process. 26(10), 4832–4842 (2017)MathSciNetCrossRefMATH
4.
Zurück zum Zitat Zhang, K., Li, X., Song, H., et al.: Visual tracking using spatio-temporally nonlocally regularized correlation filter. Pattern Recogn. 83, 185–195 (2018)CrossRef Zhang, K., Li, X., Song, H., et al.: Visual tracking using spatio-temporally nonlocally regularized correlation filter. Pattern Recogn. 83, 185–195 (2018)CrossRef
5.
Zurück zum Zitat Zhang, K., Liu, Q., Yang, J., et al.: Visual tracking via boolean map representations. Pattern Recogn. 81, 147–160 (2018)CrossRef Zhang, K., Liu, Q., Yang, J., et al.: Visual tracking via boolean map representations. Pattern Recogn. 81, 147–160 (2018)CrossRef
6.
Zurück zum Zitat Li, C., Cheng, H., Hu, S., et al: Learning collaborative sparse representation for grayscale-thermal tracking. IEEE Trans. Image Process. 25(12), 5743–5756 (2016)MathSciNetCrossRefMATH Li, C., Cheng, H., Hu, S., et al: Learning collaborative sparse representation for grayscale-thermal tracking. IEEE Trans. Image Process. 25(12), 5743–5756 (2016)MathSciNetCrossRefMATH
8.
Zurück zum Zitat Zhang, K., Liu, Q., Wu, Y., et al.: Robust visual tracking via convolutional networks without training. IEEE Trans. Image Process. 25(4), 1779–1792 (2016)MathSciNetMATH Zhang, K., Liu, Q., Wu, Y., et al.: Robust visual tracking via convolutional networks without training. IEEE Trans. Image Process. 25(4), 1779–1792 (2016)MathSciNetMATH
9.
Zurück zum Zitat Yang, J., Zhang, K., Liu, Q.: Robust object tracking by online Fisher discrimination boosting feature selection. Comput. Vis. Image Underst. 153, 100–108 (2016)CrossRef Yang, J., Zhang, K., Liu, Q.: Robust object tracking by online Fisher discrimination boosting feature selection. Comput. Vis. Image Underst. 153, 100–108 (2016)CrossRef
10.
Zurück zum Zitat Chen, W., Zhang, K., Liu, Q.: Robust visual tracking via patch based Kernel correlation filters with adaptive multiple feature ensemble. Neurocomputing 214, 607–617 (2016)CrossRef Chen, W., Zhang, K., Liu, Q.: Robust visual tracking via patch based Kernel correlation filters with adaptive multiple feature ensemble. Neurocomputing 214, 607–617 (2016)CrossRef
11.
Zurück zum Zitat Song, H., Zheng, Y., Zhang, K.: Robust visual tracking via self-similarity learning. Electron. Lett. 53(1), 20–22 (2016)CrossRef Song, H., Zheng, Y., Zhang, K.: Robust visual tracking via self-similarity learning. Electron. Lett. 53(1), 20–22 (2016)CrossRef
12.
Zurück zum Zitat Wang, X., Li, C., Luo, B., et al.: SINT++: robust visual tracking via adversarial positive instance generation. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 4864–4873 (2018) Wang, X., Li, C., Luo, B., et al.: SINT++: robust visual tracking via adversarial positive instance generation. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 4864–4873 (2018)
14.
Zurück zum Zitat Choi, J., Chang, H.J., Jeong, J., et al.: Visual tracking using attention-modulated disintegration and integration. In: Computer Vision and Pattern Recognition. IEEE, pp. 4321–4330 (2016) Choi, J., Chang, H.J., Jeong, J., et al.: Visual tracking using attention-modulated disintegration and integration. In: Computer Vision and Pattern Recognition. IEEE, pp. 4321–4330 (2016)
15.
Zurück zum Zitat Duffner, S., Garcia, C.: Fast pixelwise adaptive visual tracking of non-rigid objects. IEEE Trans. Image Process. 26(5), 2368–2380 (2017)MathSciNetCrossRefMATH Duffner, S., Garcia, C.: Fast pixelwise adaptive visual tracking of non-rigid objects. IEEE Trans. Image Process. 26(5), 2368–2380 (2017)MathSciNetCrossRefMATH
16.
Zurück zum Zitat Kwon, J., Lee, K.M.: Adaptive visual tracking with minimum uncertainty gap estimation. IEEE Trans. Pattern Anal. Mach. Intell. 39(1), 18–31 (2017)CrossRef Kwon, J., Lee, K.M.: Adaptive visual tracking with minimum uncertainty gap estimation. IEEE Trans. Pattern Anal. Mach. Intell. 39(1), 18–31 (2017)CrossRef
17.
Zurück zum Zitat Danelljan, M., Häger, G., Khan, F.S., et al.: Discriminative scale space tracking. IEEE Trans. Pattern Anal. Mach. Intell. 39(8), 1561–1575 (2017)CrossRef Danelljan, M., Häger, G., Khan, F.S., et al.: Discriminative scale space tracking. IEEE Trans. Pattern Anal. Mach. Intell. 39(8), 1561–1575 (2017)CrossRef
18.
Zurück zum Zitat Bertinetto, L., Valmadre, J., Golodetz, S., et al.: Staple: complementary learners for real-time tracking. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 1401–1409 (2016) Bertinetto, L., Valmadre, J., Golodetz, S., et al.: Staple: complementary learners for real-time tracking. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 1401–1409 (2016)
Metadaten
Titel
Visual node prediction for visual tracking
verfasst von
Heng Yuan
Wen-Tao Jiang
Wan-Jun Liu
Sheng-Chong Zhang
Publikationsdatum
30.01.2019
Verlag
Springer Berlin Heidelberg
Erschienen in
Multimedia Systems / Ausgabe 3/2019
Print ISSN: 0942-4962
Elektronische ISSN: 1432-1882
DOI
https://doi.org/10.1007/s00530-019-00603-1

Weitere Artikel der Ausgabe 3/2019

Multimedia Systems 3/2019 Zur Ausgabe

Neuer Inhalt