期刊文献+

一类全局收敛的记忆梯度法及其线性收敛性 被引量:33

A Class of Global Convergent Memory Gradient Methods and Its Linear Convergence Rate
下载PDF
导出
摘要 本文研究一类新的解无约束最优化问题的记忆梯度法,在强Wolfe线性搜索下证明了其全局收敛性.当目标函数为一致凸函数时,对其线性收敛速率进行了分析.数值试验表明算法是很有效的. In this paper, a new class of memory gradient methods for unconstrained optimization problem is presented. The convergence of the algorithms with strong Wolfe line search is proved. The linear convergence rate is investigated when the objective function is uniformly convex. Numberical experiments show that the new algorithm is very effcient.
出处 《数学进展》 CSCD 北大核心 2007年第1期67-75,共9页 Advances in Mathematics(China)
基金 国家自然科学基金资助(No.10171054).
关键词 无约束最优化 记忆梯度法 强WOLFE线性搜索 线性收敛速率 unconstrained optimization problem memory gradient method strong Wolfe line search linear convergence rate
  • 相关文献

参考文献2

二级参考文献13

  • 1戴--虹,IMA J Numer Anal,1996年
  • 2戴--虹,1995年
  • 3Liu G H,1993年
  • 4袁亚湘,Numerical Methods for Nonlinear Programming,1993年
  • 5Hu Y F,JOTA,1991年,71卷,2期,399页
  • 6Dai Yuhong,Sci China A,1998年,41卷,11期,1142页
  • 7Han Jiye,Syst Sci Math Sci,1998年,11卷,2期,112页
  • 8袁亚湘,最优化理论与方法,1997年
  • 9Yuan Yaxiang,Optimization Methods and Software,1993年,2卷,19页
  • 10席少霖,非线性最优化方法,1992年

共引文献74

同被引文献137

引证文献33

二级引证文献52

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部