摘要
针对机器学习中一类有限光滑凸函数和的最小化问题,将随机递归梯度算法和一种改进的BB步长方法有机结合,提出一种新的随机递归梯度算法.新算法的特点是对初始步长具有鲁棒性,其初始步长可以任意选取.新算法充分利用改进的BB步长方法的优势,使得算法运行过程中自适应地调节步长大小.数值实验表明新算法是可行有效的.
To propose a new modified stochastic recursive gradient algorithm for minimizing the sum of a finite number of smooth convex function,we combine the stochastic recursive gradient algorithm with an improved BB step size method.The characteristic of the algorithm is that the new algorithm is robust on the initial step size which can be arbitrarily selected and automatically adjust in the running process of the algorithm.Numerical experiments indicate that the proposed algorithm is feasible and effective.
作者
甄娜
王福胜
ZHEN Na;WANG Fusheng(Department of Mathematics,Taiyuan Normal University,Jinzhong 030619,China)
出处
《太原师范学院学报(自然科学版)》
2020年第4期6-10,共5页
Journal of Taiyuan Normal University:Natural Science Edition
基金
山西省回国留学人员科研项目(2017-104)
太原师范学院研究生创新项目(SYYJSJC-1911)。
关键词
机器学习
随机优化
递归迭代
方差约简
BB方法
machine learning
stochastic optimization
recursive iteration
variance reduction
BB method