Skip to main content
main-content

Tipp

Weitere Artikel dieser Ausgabe durch Wischen aufrufen

Erschienen in: Numerical Algorithms 2/2020

10.07.2019 | Original Paper

Further comment on another hybrid conjugate gradient algorithm for unconstrained optimization by Andrei

verfasst von: Xiuyun Zheng, Xiaoliang Dong, Jiarong Shi, Wei Yang

Erschienen in: Numerical Algorithms | Ausgabe 2/2020

Einloggen, um Zugang zu erhalten
share
TEILEN

Abstract

In Dai and Wen (Numer. Algor. 69, 337–341 2015), some improvements have been presented in the proof of Theorem 2 and Theorem 4 in Andrei (Numer. Algor. 47, 143–156 2008). However, due to incorrect inequalities used, the reasoning proof of Theorem 2.1 in Dai and Wen (Numer. Algor. 69, 337–341 2015) is incorrect. Moreover, the assumption on 0 < c1𝜃k < 1 of Theorem 2.1 cannot be deleted in Dai and Wen (Numer. Algor. 69, 337–341 2015). In this paper, the necessary corrections are made. Finally, another version of the proof process of Theorem 3.1 in (Numer. Algor. 69, 337–341 2015) is given. Throughout, we use the same notations and equation numbers as in Dai and Wen (Numer. Algor. 69, 337–341 2015), Andrei (Numer. Algor. 47, 143–156 2008).

Sie möchten Zugang zu diesem Inhalt erhalten? Dann informieren Sie sich jetzt über unsere Produkte:

Springer Professional "Wirtschaft"

Online-Abonnement

Mit Springer Professional "Wirtschaft" erhalten Sie Zugriff auf:

  • über 58.000 Bücher
  • über 300 Zeitschriften

aus folgenden Fachgebieten:

  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Versicherung + Risiko




Testen Sie jetzt 15 Tage kostenlos.

Springer Professional "Technik"

Online-Abonnement

Mit Springer Professional "Technik" erhalten Sie Zugriff auf:

  • über 50.000 Bücher
  • über 380 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Maschinenbau + Werkstoffe




Testen Sie jetzt 15 Tage kostenlos.

Springer Professional "Wirtschaft+Technik"

Online-Abonnement

Mit Springer Professional "Wirtschaft+Technik" erhalten Sie Zugriff auf:

  • über 69.000 Bücher
  • über 500 Zeitschriften

aus folgenden Fachgebieten:

  • Automobil + Motoren
  • Bauwesen + Immobilien
  • Business IT + Informatik
  • Elektrotechnik + Elektronik
  • Energie + Nachhaltigkeit
  • Finance + Banking
  • Management + Führung
  • Marketing + Vertrieb
  • Maschinenbau + Werkstoffe
  • Versicherung + Risiko

Testen Sie jetzt 15 Tage kostenlos.

Literatur
1.
Zurück zum Zitat Dai, Z.F., Wen, F.H.: Comments on another hybrid conjugate gradient algorithm for unconstrained optimization by Andrei. Numer. Algor. 69, 337–341 (2015) MathSciNetCrossRef Dai, Z.F., Wen, F.H.: Comments on another hybrid conjugate gradient algorithm for unconstrained optimization by Andrei. Numer. Algor. 69, 337–341 (2015) MathSciNetCrossRef
2.
Zurück zum Zitat Andrei, N.: Another hybrid conjugate gradient algorithm for unconstrained optimization. Numer. Algor. 47, 143–156 (2008) MathSciNetCrossRef Andrei, N.: Another hybrid conjugate gradient algorithm for unconstrained optimization. Numer. Algor. 47, 143–156 (2008) MathSciNetCrossRef
3.
Zurück zum Zitat Hager, W.W., Zhang, H.: A new conjugate gradient method with guaranteed descent and an efficient line search. SIAM J. Optim. 16(1), 170–192 (2005) MathSciNetCrossRef Hager, W.W., Zhang, H.: A new conjugate gradient method with guaranteed descent and an efficient line search. SIAM J. Optim. 16(1), 170–192 (2005) MathSciNetCrossRef
4.
Zurück zum Zitat Hager, W.W., Zhang, H.: The limited memory conjugate gradient method. SIAM J. Optim. 23(4), 2150–2168 (2013) MathSciNetCrossRef Hager, W.W., Zhang, H.: The limited memory conjugate gradient method. SIAM J. Optim. 23(4), 2150–2168 (2013) MathSciNetCrossRef
5.
Zurück zum Zitat Dai, Y., Kou, C.: A nonlinear conjugate gradient algorithm with an optimal property and an improved Wolfe line search. SIAM J. Optim. 23(1), 296–320 (2013) MathSciNetCrossRef Dai, Y., Kou, C.: A nonlinear conjugate gradient algorithm with an optimal property and an improved Wolfe line search. SIAM J. Optim. 23(1), 296–320 (2013) MathSciNetCrossRef
6.
Zurück zum Zitat Zhang, L., Zhou, W., Li, D.: Global convergence of a modified Fletcher-Reeves conjugate gradient method with Armijo-type line search. Numer. Math. 104(4), 561–572 (2006) MathSciNetCrossRef Zhang, L., Zhou, W., Li, D.: Global convergence of a modified Fletcher-Reeves conjugate gradient method with Armijo-type line search. Numer. Math. 104(4), 561–572 (2006) MathSciNetCrossRef
7.
Zurück zum Zitat Al-Baali, M.: Descent property and global convergence of the Fletcher-Reeves method with inexact line search. IMA J. Numer. Anal. 5(1), 121–124 (1985) MathSciNetCrossRef Al-Baali, M.: Descent property and global convergence of the Fletcher-Reeves method with inexact line search. IMA J. Numer. Anal. 5(1), 121–124 (1985) MathSciNetCrossRef
8.
Zurück zum Zitat Zheng, X., Liu, H., Lu, A.: Sufficient descent conjugate gradient methods for large-scale optimization problems. Int. J. Comput. Math. 88(16), 3436–3447 (2011) MathSciNetCrossRef Zheng, X., Liu, H., Lu, A.: Sufficient descent conjugate gradient methods for large-scale optimization problems. Int. J. Comput. Math. 88(16), 3436–3447 (2011) MathSciNetCrossRef
9.
Zurück zum Zitat Zheng, X., Shi, J.: A modified sufficient descent Polak-Ribiėre-Polyak type conjugate gradient method for unconstrained optimization problems. Algorithms 11 (9), 133 (2018) CrossRef Zheng, X., Shi, J.: A modified sufficient descent Polak-Ribiėre-Polyak type conjugate gradient method for unconstrained optimization problems. Algorithms 11 (9), 133 (2018) CrossRef
10.
Zurück zum Zitat Dong, X., Liu, H., He, Y.: A self-adjusting conjugate gradient method with sufficient descent condition and conjugacy condition. J. Optim. Theory Appl. 165 (1), 225–241 (2015) MathSciNetCrossRef Dong, X., Liu, H., He, Y.: A self-adjusting conjugate gradient method with sufficient descent condition and conjugacy condition. J. Optim. Theory Appl. 165 (1), 225–241 (2015) MathSciNetCrossRef
11.
Zurück zum Zitat Dong, X., Han, D., Dai, Z., Li, X., Zhu, J.: An accelerated three-term conjugate gradient method with sufficient descent condition and conjugacy condition. J. Optim. Theory Appl. 179(3), 944–961 (2018) MathSciNetCrossRef Dong, X., Han, D., Dai, Z., Li, X., Zhu, J.: An accelerated three-term conjugate gradient method with sufficient descent condition and conjugacy condition. J. Optim. Theory Appl. 179(3), 944–961 (2018) MathSciNetCrossRef
13.
Zurück zum Zitat Al-Baali, M., Narushima, Y., Yabe, H.: A family of three-term conjugate gradient methods with sufficient descent property for unconstrained optimization. Comput. Optim. Appl. 60(1), 89–110 (2015) MathSciNetCrossRef Al-Baali, M., Narushima, Y., Yabe, H.: A family of three-term conjugate gradient methods with sufficient descent property for unconstrained optimization. Comput. Optim. Appl. 60(1), 89–110 (2015) MathSciNetCrossRef
14.
Zurück zum Zitat Hestenes, M.R., Stiefel, E.: Methods of conjugate gradients for solving linear systems. J. Res. Natl. Bur. Stand. 49(6), 409–436 (1952) MathSciNetCrossRef Hestenes, M.R., Stiefel, E.: Methods of conjugate gradients for solving linear systems. J. Res. Natl. Bur. Stand. 49(6), 409–436 (1952) MathSciNetCrossRef
15.
Zurück zum Zitat Dai, Y.H., Yuan, Y.X.: A nonlinear conjugate gradient method with a strong global convergence property. SIAM J. Optim. 10(1), 177–182 (1999) MathSciNetCrossRef Dai, Y.H., Yuan, Y.X.: A nonlinear conjugate gradient method with a strong global convergence property. SIAM J. Optim. 10(1), 177–182 (1999) MathSciNetCrossRef
Metadaten
Titel
Further comment on another hybrid conjugate gradient algorithm for unconstrained optimization by Andrei
verfasst von
Xiuyun Zheng
Xiaoliang Dong
Jiarong Shi
Wei Yang
Publikationsdatum
10.07.2019
Verlag
Springer US
Erschienen in
Numerical Algorithms / Ausgabe 2/2020
Print ISSN: 1017-1398
Elektronische ISSN: 1572-9265
DOI
https://doi.org/10.1007/s11075-019-00771-1

Weitere Artikel der Ausgabe 2/2020

Numerical Algorithms 2/2020 Zur Ausgabe

Premium Partner