摘要
本文给出了一种新的共轭梯度公式βk=rk gk2/ugTk dk-1+dTk-1(gk- gk- 1),该公式在标k-1(gk-gk-1)准Wolfe线搜索下具有充分下降性和全局收敛性.
This paper provides a new formula of Conjugate Gradient,βk=rk‖gk‖^2/u|gk^Tdk-1|+dk^T-1(gk- gk- 1), and tformula has abundant descendent property and Global Convergence Property under the standard of Wolfe linear search.
出处
《玉林师范学院学报》
2014年第5期17-20,共4页
Journal of Yulin Normal University
基金
2014年玉林师范学院大学生创新创业训练计划项目(编号:122)
关键词
无约束优化
共轭梯度法
线搜索
全局收敛性
unconstrained optimization
conjugates gradient method
line search
global convergence