摘要
研究一类新的无约束优化记忆梯度算法,并在强Wolfe线性搜索下证明了其全局收敛性.当目标函数为一致凸函数时,对其线性收敛速率进行了分析.
The authors present a new class of memory gradient methods for unconstraind optimization problems and prove its global convergence under strong Wolfe line searches.The linear convergence rate is investigated when the objective function is uniformly convex.
出处
《曲阜师范大学学报(自然科学版)》
CAS
2005年第2期24-28,共5页
Journal of Qufu Normal University(Natural Science)
基金
国家自然科学基金资助 (10 1710 5 4)
关键词
无约束优化
记忆梯度法
强WOLFE线性搜索
线性收敛速率
unconstraind optimization
memory gradient method
strong Wolfe line search
linear convergence rate