Skip to main content

2016 | OriginalPaper | Buchkapitel

Data Augmentation for Object Recognition of Dynamic Learning Robot

verfasst von : Jiunn Yuan Chan, Shuzhi Sam Ge, Chen Wang, Mingming Li

Erschienen in: Social Robotics

Verlag: Springer International Publishing

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

The training of deep learning networks for robot object recognition requires a large database of training images for satisfactory performance. The term “dynamic learning” in this paper refers to the ability of a robot to learn new features under offline conditions by observing its surrounding objects. A training framework for robots to achieve object recognition with satisfactory performance under offline training conditions is proposed. A coarse but fast method of object saliency detection is developed to facilitate raw image collection. Additionally, a training scheme referred to as a Dynamic Artificial Database (DAD) is proposed to tackle the problem of overfitting when training neural networks without validation data.

Sie haben noch keine Lizenz? Dann Informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 102.000 Bücher
  • über 537 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Jetzt Wissensvorsprung sichern!

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 390 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




 

Jetzt Wissensvorsprung sichern!

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 67.000 Bücher
  • über 340 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Jetzt Wissensvorsprung sichern!

Literatur
1.
Zurück zum Zitat Kanazawa, A., Sharma, A., Jacobs, D.: Locally scale-invariant convolutional neural networks (2014). arXiv preprint. arXiv:1412.5104 Kanazawa, A., Sharma, A., Jacobs, D.: Locally scale-invariant convolutional neural networks (2014). arXiv preprint. arXiv:​1412.​5104
2.
Zurück zum Zitat Heisele, B., Kim, G., Meyer, A.: Object recognition with 3d models. In: BMVC, pp. 1–11. Citeseer (2009) Heisele, B., Kim, G., Meyer, A.: Object recognition with 3d models. In: BMVC, pp. 1–11. Citeseer (2009)
3.
Zurück zum Zitat Zhang, Y., Sohn, K., Villegas, R., Pan, G., Lee, H.: Improving object detection with deep convolutional networks via bayesian optimization and structured prediction. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 249–258 (2015) Zhang, Y., Sohn, K., Villegas, R., Pan, G., Lee, H.: Improving object detection with deep convolutional networks via bayesian optimization and structured prediction. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 249–258 (2015)
4.
Zurück zum Zitat Girshick, R., Donahue, J., Darrell, T., Malik, J.: Rich feature hierarchies for accurate object detection and semantic segmentation. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 580–587 (2014) Girshick, R., Donahue, J., Darrell, T., Malik, J.: Rich feature hierarchies for accurate object detection and semantic segmentation. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 580–587 (2014)
5.
Zurück zum Zitat Harzallah, H., Jurie, F., Schmid, C.: Combining efficient object localization and image classification. In: 2009 IEEE International Conference on Computer Vision, pp. 237–244. IEEE (2009) Harzallah, H., Jurie, F., Schmid, C.: Combining efficient object localization and image classification. In: 2009 IEEE International Conference on Computer Vision, pp. 237–244. IEEE (2009)
6.
Zurück zum Zitat Goehring, D., Hoffman, J., Rodner, E., Saenko, K., Darrell, T.: Interactive adaptation of real-time object detectors. In: 2014 IEEE International Conference on Robotics and Automation (ICRA), pp. 1282–1289. IEEE (2014) Goehring, D., Hoffman, J., Rodner, E., Saenko, K., Darrell, T.: Interactive adaptation of real-time object detectors. In: 2014 IEEE International Conference on Robotics and Automation (ICRA), pp. 1282–1289. IEEE (2014)
7.
Zurück zum Zitat Murphy, K., Torralba, A., Eaton, D., Freeman, W.: Object detection and localization using local and global features. In: Ponce, J., Hebert, M., Schmid, C., Zisserman, A. (eds.) Toward Category-Level Object Recognition. LNCS, vol. 4170, pp. 382–400. Springer, Heidelberg (2006). doi:10.1007/11957959_20 CrossRef Murphy, K., Torralba, A., Eaton, D., Freeman, W.: Object detection and localization using local and global features. In: Ponce, J., Hebert, M., Schmid, C., Zisserman, A. (eds.) Toward Category-Level Object Recognition. LNCS, vol. 4170, pp. 382–400. Springer, Heidelberg (2006). doi:10.​1007/​11957959_​20 CrossRef
9.
Zurück zum Zitat Cheng, M., Mitra, N.J., Huang, X., Torr, P.H., Hu, S.: Global contrast based salient region detection. IEEE Trans. Pattern Anal. Mach. Intell. 37(3), 569–582 (2015)CrossRef Cheng, M., Mitra, N.J., Huang, X., Torr, P.H., Hu, S.: Global contrast based salient region detection. IEEE Trans. Pattern Anal. Mach. Intell. 37(3), 569–582 (2015)CrossRef
Metadaten
Titel
Data Augmentation for Object Recognition of Dynamic Learning Robot
verfasst von
Jiunn Yuan Chan
Shuzhi Sam Ge
Chen Wang
Mingming Li
Copyright-Jahr
2016
DOI
https://doi.org/10.1007/978-3-319-47437-3_41