期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于AdaGrad的自适应NAG方法及其最优个体收敛性
被引量:
3
1
作者
陇盛
陶蔚
+1 位作者
张泽东
陶卿
《软件学报》
EI
CSCD
北大核心
2022年第4期1231-1243,共13页
与梯度下降法相比,自适应梯度下降方法(AdaGrad)利用过往平方梯度的算数平均保存了历史数据的几何信息,在处理稀疏数据时获得了更紧的收敛界.另一方面,Nesterov加速梯度方法(Nesterov’saccelerated gradient,NAG)在梯度下降法的基础上...
与梯度下降法相比,自适应梯度下降方法(AdaGrad)利用过往平方梯度的算数平均保存了历史数据的几何信息,在处理稀疏数据时获得了更紧的收敛界.另一方面,Nesterov加速梯度方法(Nesterov’saccelerated gradient,NAG)在梯度下降法的基础上添加了动量运算,在求解光滑凸优化问题时具有数量级加速收敛的性能,在处理非光滑凸问题时也获得了最优的个体收敛速率.最近,已经出现了自适应策略与NAG相结合的研究,但现有代表性的自适应NAG方法AcceleGrad由于采取的自适应方式与AdaGrad不同,步长未能在不同维度上体现差异性,仅得到了加权平均方式的收敛速率,个体收敛速率的理论分析尚存在缺失.提出了一种自适应NAG方法,继承了AdaGrad的步长设置方式,证明了所提算法在解决约束非光滑凸优化问题时具有最优的个体收敛速率.在L1范数约束下,通过求解典型的hinge损失函数分类和L1损失函数回归优化问题.实验验证了理论分析的正确性,也表明了所提算法的性能优于AcceleGrad.
展开更多
关键词
机器学习
凸优化
自适应算法
nag方法
个体收敛速率
下载PDF
职称材料
基于广义化自适应的NAG方法非负张量分解模型
2
作者
陶名康
《应用数学进展》
2022年第5期3134-3149,共16页
单元素非负乘法更新算法在学习模型超参数时会出现长尾收敛的情况,本文通过将NAG方法融入到单元素非负乘法更新算法中,得到了广义化的NAG方法,并在此基础上提出了基于广义化自适应的NAG非负张量分解模型。在训练过程中利用粒子群算法对...
单元素非负乘法更新算法在学习模型超参数时会出现长尾收敛的情况,本文通过将NAG方法融入到单元素非负乘法更新算法中,得到了广义化的NAG方法,并在此基础上提出了基于广义化自适应的NAG非负张量分解模型。在训练过程中利用粒子群算法对模型的正则化系数和算法的加速度系数进行了优化。最后,在两个真实的工业数据集上的对比实验表明,本文提出的广义化NAG方法明显提高了模型的收敛速度。
展开更多
关键词
非负乘法更新
nag方法
高维稀疏数据
张量分解
下载PDF
职称材料
题名
基于AdaGrad的自适应NAG方法及其最优个体收敛性
被引量:
3
1
作者
陇盛
陶蔚
张泽东
陶卿
机构
中国人民解放军陆军炮兵防空兵学院信息工程系
中国人民解放军军事科学院战略评估咨询中心
出处
《软件学报》
EI
CSCD
北大核心
2022年第4期1231-1243,共13页
基金
国家自然科学基金(62076252,62106281)。
文摘
与梯度下降法相比,自适应梯度下降方法(AdaGrad)利用过往平方梯度的算数平均保存了历史数据的几何信息,在处理稀疏数据时获得了更紧的收敛界.另一方面,Nesterov加速梯度方法(Nesterov’saccelerated gradient,NAG)在梯度下降法的基础上添加了动量运算,在求解光滑凸优化问题时具有数量级加速收敛的性能,在处理非光滑凸问题时也获得了最优的个体收敛速率.最近,已经出现了自适应策略与NAG相结合的研究,但现有代表性的自适应NAG方法AcceleGrad由于采取的自适应方式与AdaGrad不同,步长未能在不同维度上体现差异性,仅得到了加权平均方式的收敛速率,个体收敛速率的理论分析尚存在缺失.提出了一种自适应NAG方法,继承了AdaGrad的步长设置方式,证明了所提算法在解决约束非光滑凸优化问题时具有最优的个体收敛速率.在L1范数约束下,通过求解典型的hinge损失函数分类和L1损失函数回归优化问题.实验验证了理论分析的正确性,也表明了所提算法的性能优于AcceleGrad.
关键词
机器学习
凸优化
自适应算法
nag方法
个体收敛速率
Keywords
machine learning
convex optimization
adaptive algorithm
nag
method
individual convergence rate
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
基于广义化自适应的NAG方法非负张量分解模型
2
作者
陶名康
机构
上海理工大学
出处
《应用数学进展》
2022年第5期3134-3149,共16页
文摘
单元素非负乘法更新算法在学习模型超参数时会出现长尾收敛的情况,本文通过将NAG方法融入到单元素非负乘法更新算法中,得到了广义化的NAG方法,并在此基础上提出了基于广义化自适应的NAG非负张量分解模型。在训练过程中利用粒子群算法对模型的正则化系数和算法的加速度系数进行了优化。最后,在两个真实的工业数据集上的对比实验表明,本文提出的广义化NAG方法明显提高了模型的收敛速度。
关键词
非负乘法更新
nag方法
高维稀疏数据
张量分解
分类号
O183.2 [理学—基础数学]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于AdaGrad的自适应NAG方法及其最优个体收敛性
陇盛
陶蔚
张泽东
陶卿
《软件学报》
EI
CSCD
北大核心
2022
3
下载PDF
职称材料
2
基于广义化自适应的NAG方法非负张量分解模型
陶名康
《应用数学进展》
2022
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部