期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
一种关于有效步长约束的自适应算法
1
作者 姜文翰 刘曜齐 姜志侠 《应用数学进展》 2023年第10期4248-4254,共7页
鉴于Adam算法在迭代后期因有效步长过大而导致算法的收敛性能下降,本研究提出了一种名为MAXGrad的优化算法。MAXGrad通过修改二阶矩的迭代公式以限制有效步长的增长。为深入评估MAXGrad算法的实际应用和性能,本文扩展了实验范围,采用三... 鉴于Adam算法在迭代后期因有效步长过大而导致算法的收敛性能下降,本研究提出了一种名为MAXGrad的优化算法。MAXGrad通过修改二阶矩的迭代公式以限制有效步长的增长。为深入评估MAXGrad算法的实际应用和性能,本文扩展了实验范围,采用三个较大规模的数据集,并与SGDM、Adam以及AMSGrad等算法进行了详细比较。实验结果清晰表明,在多个数据集上,MAXGrad算法相对于Adam和AMSGrad等自适应算法均取得了显著的性能改进。这些结果充分验证了MAXGrad算法作为一种全新的有效步长迭代算法的可行性和卓越性能。 展开更多
关键词 maxgrad算法 自适应算法 收敛性能 机器学习
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部