期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
用于训练神经网络的自适应梯度下降优化算法 被引量:3
1
作者 阮乐笑 《哈尔滨商业大学学报(自然科学版)》 CAS 2024年第1期25-31,共7页
由于神经网络规模的扩大,模型训练变得越来越困难.为应对这一问题,提出了一种新的自适应优化算法——Adaboundinject.选取Adam的改进算法Adabound算法,引入动态学习率边界,实现了自适应算法向随机梯度下降(SGD)的平稳过渡.为了避免最小... 由于神经网络规模的扩大,模型训练变得越来越困难.为应对这一问题,提出了一种新的自适应优化算法——Adaboundinject.选取Adam的改进算法Adabound算法,引入动态学习率边界,实现了自适应算法向随机梯度下降(SGD)的平稳过渡.为了避免最小值的超调,减少在最小值附近的振荡,在Adabound的二阶矩中加入一阶矩,利用短期参数更新作为权重,以控制参数更新.为了验证算法性能,在凸环境下,通过理论证明了Adaboundinject具有收敛性.在非凸环境下,进行了多组实验,采用了不同的神经网络模型,通过与其他自适应算法对比,验证了该算法相比其他优化算法具有更好的性能.实验结果表明,Adaboundinject算法在深度学习优化领域具有重要的应用价值,能够有效提高模型训练的效率和精度. 展开更多
关键词 深度学习 自适应优化算法 神经网络模型 图像识别 动态学习率边界 短期参数更新
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部