期刊文献+

一类新的强Wolfe线性搜索下的记忆梯度法 被引量:11

A New Class of Memory Gradient Methods under Strong Wolfe Line Search
下载PDF
导出
摘要 研究一类新的无约束优化记忆梯度算法,并在强Wolfe线性搜索下证明了其全局收敛性.当目标函数为一致凸函数时,对其线性收敛速率进行了分析. The authors present a new class of memory gradient methods for unconstraind optimization problems and prove its global convergence under strong Wolfe line searches.The linear convergence rate is investigated when the objective function is uniformly convex.
出处 《曲阜师范大学学报(自然科学版)》 CAS 2005年第2期24-28,共5页 Journal of Qufu Normal University(Natural Science)
基金 国家自然科学基金资助 (10 1710 5 4)
关键词 无约束优化 记忆梯度法 强WOLFE线性搜索 线性收敛速率 unconstraind optimization memory gradient method strong Wolfe line search linear convergence rate
  • 相关文献

参考文献4

二级参考文献8

共引文献3

同被引文献51

引证文献11

二级引证文献28

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部