期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
13
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于Polyak步长的加速临近随机方差缩减算法
1
作者
王福胜
史鲁玉
《运筹学学报(中英文)》
CSCD
北大核心
2024年第2期131-142,共12页
针对大规模机器学习中随机复合优化问题,本文将加速临近随机方差缩减算法(Acc-Prox-SVRG)和Polyak步长方法相结合,提出了一种新的加速临近随机方差缩减算法(Acc-Prox-SVRG-Polyak)。相比于已有算法,新算法充分利用加速技术和Polyak步长...
针对大规模机器学习中随机复合优化问题,本文将加速临近随机方差缩减算法(Acc-Prox-SVRG)和Polyak步长方法相结合,提出了一种新的加速临近随机方差缩减算法(Acc-Prox-SVRG-Polyak)。相比于已有算法,新算法充分利用加速技术和Polyak步长的优越性,提高了准确率。在通常的假定下论证了算法的收敛性,并分析了复杂度。最后,数值实验验证了新算法的有效性。
展开更多
关键词
Polyak步长
方差
缩减
机器学习
随机
梯度
下载PDF
职称材料
带有随机改进Barzilai-Borwein步长的小批量稀疏随机方差缩减梯度法
2
作者
秦传东
杨旭
《计算机应用研究》
CSCD
北大核心
2023年第12期3655-3659,3665,共6页
为了更好地应对当今时代的大规模高维稀疏数据集,融合BB方法、小批量算法与随机方差缩减梯度法(SVRG)优势,提出一种带有随机改进Barzilai-Borwein步长的小批量稀疏随机方差缩减梯度法(MSSVRG-R2BB)。首先,在SVRG外循环中全梯度计算的基...
为了更好地应对当今时代的大规模高维稀疏数据集,融合BB方法、小批量算法与随机方差缩减梯度法(SVRG)优势,提出一种带有随机改进Barzilai-Borwein步长的小批量稀疏随机方差缩减梯度法(MSSVRG-R2BB)。首先,在SVRG外循环中全梯度计算的基础上加入L_1范数次梯度设计出一种稀疏近似梯度用于内循环,得到一种稀疏的SVRG算法(SSVRG)。在此基础上,在小批量的稀疏随机方差缩减梯度法中使用随机选取的改进BB方法自动计算、更新步长,解决了小批量算法的步长选取问题,拓展得到MSSVRG-R2BB算法。数值实验表明,在求解大规模高维稀疏数据的线性支持向量机(SVM)问题时,MSSVRG-R2BB算法不仅可以减小运算成本、更快达到收敛上界,同时能达到与其他先进的小批量算法相同的优化水平,并且对于不同的初始参数选取表现稳定且良好。
展开更多
关键词
随机
梯度
下降
法
小批量算
法
Barzilai-Borwein方
法
方差
缩减
凸优化
下载PDF
职称材料
分布式随机方差消减梯度下降算法topkSVRG
被引量:
5
3
作者
王建飞
亢良伊
+1 位作者
刘杰
叶丹
《计算机科学与探索》
CSCD
北大核心
2018年第7期1047-1054,共8页
机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具。随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(...
机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具。随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(stochastic variance reduction gradient,SVRG)则可以达到线性的收敛率。SVRG是一种串行单机版算法,为了应对大规模数据集分布式训练问题,设计一种以SVRG算法思想为基础的分布式SVRG的实现算法topk SVRG。改进在于:主节点维护一个全局模型,从节点基于本地数据进行局部模型更新。每轮迭代时,选择与当前全局模型距离最小的k个局部模型进行平均来更新全局模型,参数k调大可以提高收敛速度,调小k可以保证收敛。理论分析了算法的线性收敛性,基于Spark进行算法实现,通过与Mini-Batch SGD、CoCoA、Splash及相关算法的实验比较,topkSVRG可以在高精度要求下更快地收敛。
展开更多
关键词
机器学习
优化
随机
梯度
下降(SGD)
随机
方差
消减
梯度
法
(
svrg
)
分布式计算
下载PDF
职称材料
求解SVM的稀疏随机方差缩减梯度法
被引量:
3
4
作者
周晓君
于腾腾
《计算机应用研究》
CSCD
北大核心
2020年第S02期95-97,101,共4页
针对随机梯度下降(SGD)算法解支持向量机(SVM)中存在步长的选取耗时且收敛速度较慢等问题,提出使用改进的Barzilai-Borwein(BB)法自动计算小批量随机方差减小的梯度法(MSVRG)的步长,来解决光滑化合页损失函数的支持向量机问题。针对高...
针对随机梯度下降(SGD)算法解支持向量机(SVM)中存在步长的选取耗时且收敛速度较慢等问题,提出使用改进的Barzilai-Borwein(BB)法自动计算小批量随机方差减小的梯度法(MSVRG)的步长,来解决光滑化合页损失函数的支持向量机问题。针对高维稀疏数据下,SVRG在外循环的迭代中因全梯度的计算而变得稠密,使用稀疏近似梯度将MSVRG-BB算法拓展得到新的算法:MSSVRG-BB。数值实验表明,MSSVRG-BB算法不仅对初始参数的选取并不敏感,且与先进的小批量算法相比,对于求解大规模高维稀疏数据的线性SVM问题,稀疏近似梯度的使用使运算成本减小进而能够更快地达到收敛上界。
展开更多
关键词
支持向量机
稀疏性
Barzilai-Borwein
小批量
随机
方差
减小
梯度
法
(
svrg
)
下载PDF
职称材料
机器学习中随机方差缩减梯度算法的一种新的步长规则
被引量:
1
5
作者
杨一名
王福胜
《太原师范学院学报(自然科学版)》
2021年第4期37-42,共6页
针对大规模机器学习中常见的经验风险最小化问题,提出一种新的随机方差缩减梯度算法(SVRG-CABB).新算法结合了SVRG和复合BB步长的优势,对于初始步长的选取不敏感,在运算过程中通过动态调节步长,提高算法的运算效率.在标准数据集上的数...
针对大规模机器学习中常见的经验风险最小化问题,提出一种新的随机方差缩减梯度算法(SVRG-CABB).新算法结合了SVRG和复合BB步长的优势,对于初始步长的选取不敏感,在运算过程中通过动态调节步长,提高算法的运算效率.在标准数据集上的数值实验结果表明新算法是可行有效的.
展开更多
关键词
机器学习
随机
梯度
方差
缩减
复合BB步长
下载PDF
职称材料
批量减数更新方差缩减梯度下降算法BSUG
被引量:
6
6
作者
宋杰
朱勇
许冰
《计算机工程与应用》
CSCD
北大核心
2020年第22期117-123,共7页
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达...
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达到线性收敛而被人们广泛研究。它的提出导致陆续出现如SAGA(Stochastic Average Gradient Average)和SCSG(Stochastically Controlled Stochastic Gradient)等新型方差缩减算法,它们有着过量消耗内存、迭代缓慢等问题。为了实现小成本存储以及快速迭代的目的,设计了一种以SVRG为基础的新型变异方差缩减算法BSUG(Batch Subtraction Update Gradient)。改进在于:使用小批量样本代替全部样本进行平均梯度计算,同时对平均梯度进行减数更新。每轮迭代中,随机抽取一批小样本进行平均梯度计算,同时在内部迭代时通过对过去模型梯度的舍去来达到更新平均梯度的目的。通过合适地降低批大小B,可以减少内存存储以及迭代次数。理论分析算法的收敛性,并基于Python进行算法实现,通过与Mini-Batch SGD、AdaGrad、RMSProp、SVRG和SCSG等算法进行比较证明了BSUG算法的有效性,并且通过对超参数进行探究证明了算法的稳定性。
展开更多
关键词
机器学习
优化
小批量
减数更新
随机
方差
缩减
梯度
法
(
svrg
)
下载PDF
职称材料
非负Tucker分解的随机方差缩减乘性更新算法
7
作者
白姗姗
史加荣
《南京理工大学学报》
EI
CAS
CSCD
北大核心
2021年第2期197-204,共8页
为了降低乘性迭代算法在求解非负Tucker分解时的计算复杂度,该文在乘性迭代的基础上,提出了一种随机方差缩减乘性更新方法。该方法先将待分解的非负张量n-模式矩阵化,再运用随机方差缩减乘性更新算法对矩阵进行非负分解,得到模式矩阵,...
为了降低乘性迭代算法在求解非负Tucker分解时的计算复杂度,该文在乘性迭代的基础上,提出了一种随机方差缩减乘性更新方法。该方法先将待分解的非负张量n-模式矩阵化,再运用随机方差缩减乘性更新算法对矩阵进行非负分解,得到模式矩阵,最后通过梯度下降思想来更新核心张量。对高维数据进行非负Tucker分解时,加快收敛速度且降低计算复杂度,提高了张量分解性能。在人工合成数据集及真实数据集上进行数值实验,结果验证了所提算法的可行性和有效性。
展开更多
关键词
非负Tucker分解
随机
方差
缩减
梯度
算
法
乘性更新
梯度
下降
下载PDF
职称材料
基于随机方差调整梯度的非负矩阵分解
被引量:
1
8
作者
史加荣
白姗姗
《吉林大学学报(理学版)》
CAS
北大核心
2021年第1期128-135,共8页
针对求解非负矩阵分解的乘性更新规则存在计算复杂度高且迭代效率低等缺点,提出一种随机方差参数调整梯度的方法.将方差缩减策略和乘性更新规则相结合,通过引入一个调整随机梯度估计量的参数校正梯度下降方向使其偏差与方差达到平衡,从...
针对求解非负矩阵分解的乘性更新规则存在计算复杂度高且迭代效率低等缺点,提出一种随机方差参数调整梯度的方法.将方差缩减策略和乘性更新规则相结合,通过引入一个调整随机梯度估计量的参数校正梯度下降方向使其偏差与方差达到平衡,从而能快速、准确地逼近最优解.在真实数据集上进行仿真实验,结果验证了该算法的可行性和有效性.
展开更多
关键词
非负矩阵分解
随机
梯度
下降
参数调整
梯度
方差
缩减
乘性更新
下载PDF
职称材料
基于随机方差减小方法的DDPG算法
被引量:
2
9
作者
杨薛钰
陈建平
+2 位作者
傅启明
陆悠
吴宏杰
《计算机工程与应用》
CSCD
北大核心
2021年第19期104-111,共8页
针对深度确定性策略梯度算法(DDPG)收敛速度比较慢,训练不稳定,方差过大,样本应用效率低的问题,提出了一种基于随机方差减小梯度方法的深度确定性策略梯度算法(SVR-DDPG)。该算法通过利用随机方差减小梯度技术(SVRG)提出一种新的创新优...
针对深度确定性策略梯度算法(DDPG)收敛速度比较慢,训练不稳定,方差过大,样本应用效率低的问题,提出了一种基于随机方差减小梯度方法的深度确定性策略梯度算法(SVR-DDPG)。该算法通过利用随机方差减小梯度技术(SVRG)提出一种新的创新优化策略,将之运用到DDPG算法之中,在DDPG算法的参数更新过程中,加入了随机方差减小梯度技术,利用该方法的更新方式,使得估计的梯度方差有一个不断减小的上界,令方差不断缩小,从而在小的随机训练子集的基础上找到更加精确的梯度方向,以此来解决了由近似梯度估计误差引发的问题,加快了算法的收敛速度。将SVR-DDPG算法以及DDPG算法应用于Pendulum和Mountain Car问题,实验结果表明,SVR-DDPG算法具有比原算法更快的收敛速度,更好的稳定性,以此证明了算法的有效性。
展开更多
关键词
深度强化学习
深度Q学习算
法
(DQN)
深度确定性策略
梯度
算
法
(DDPG)
随机
方差
缩减
梯度
技术
下载PDF
职称材料
一种带矩限制的批量自适应方差缩减算法
10
作者
朱桂勇
雷家林
《应用数学进展》
2022年第12期9026-9038,共13页
诸多机器学习模型的训练过程可以归结为求解一个优化问题,传统的梯度下降算法及其变种的收敛速度并不能让人满意。本文在随机方差缩减梯度算法的基础上,结合了自适应学习率和矩限制的特点,并利用批量思想,选取大批量样本代替全部样本进...
诸多机器学习模型的训练过程可以归结为求解一个优化问题,传统的梯度下降算法及其变种的收敛速度并不能让人满意。本文在随机方差缩减梯度算法的基础上,结合了自适应学习率和矩限制的特点,并利用批量思想,选取大批量样本代替全部样本进行全局梯度的计算,选取小批量样本 进行参数的迭代更新,提出了带矩限制的批量自适应方差缩减算法,并对算法的收敛性进行了说明。通过基于MNIST的数值实验,验证了该算法的有效性,并探究得出实验参数对算法稳定性的影响。
展开更多
关键词
机器学习
自适应学习率
矩限制
小批量
随机
方差
缩减
梯度
法
下载PDF
职称材料
求解无约束优化问题的随机三项共轭梯度法
11
作者
刘蕾
薛丹
《应用数学进展》
2022年第7期4248-4267,共20页
为了求解无约束随机优化问题,我们提出了一种带方差缩减的随机三项共轭梯度法(STCGVR), 此方法可以用来解决非凸随机问题。 在算法的每次内循环迭代开始时,三项共轭梯度方向以最速 下降方向重新开始迭代,有效地提高了收敛速度。 在适当...
为了求解无约束随机优化问题,我们提出了一种带方差缩减的随机三项共轭梯度法(STCGVR), 此方法可以用来解决非凸随机问题。 在算法的每次内循环迭代开始时,三项共轭梯度方向以最速 下降方向重新开始迭代,有效地提高了收敛速度。 在适当的条件下,讨论了该算法的性质和收敛 性。 数值结果表明,我们的方法对于求解机器学习问题具有巨大的潜力。
展开更多
关键词
随机
近似
经验风险最小化
三项共轭
梯度
机器学习
方差
缩减
下载PDF
职称材料
带自适应学习率的加速随机方差缩减梯度法
被引量:
1
12
作者
陈国茗
于腾腾
刘新为
《数值计算与计算机应用》
2021年第3期215-225,共11页
由于随机方差缩减梯度(SVRG)法在求解经验风险最小化(ERM)问题时表现优异,近年来受到了广泛关注.与SVRG方法中使用固定的学习率不同,结合初始化偏差矫正技术,提出使用自适应方法来动态计算SVRG方法及其加速版本FSVRG方法的学习率,分别称...
由于随机方差缩减梯度(SVRG)法在求解经验风险最小化(ERM)问题时表现优异,近年来受到了广泛关注.与SVRG方法中使用固定的学习率不同,结合初始化偏差矫正技术,提出使用自适应方法来动态计算SVRG方法及其加速版本FSVRG方法的学习率,分别称为AdaSVRG方法和AdaFSVRG方法.收敛性分析表明,AdaSVRG方法和AdaFSVRG方法在强凸假设下均具有线性收敛速率.在标准数据集上的数值实验表明,在求解ERM问题时,AdaSVRG和AdaFSVRG需要更少的迭代次数就可以达到相同水平的优化间隙.
展开更多
关键词
随机
梯度
法
方差
缩减
自适应学习率
初始化偏差矫正
动量加速.
原文传递
AdaSVRG:自适应学习率加速SVRG
被引量:
2
13
作者
吉梦
何清龙
《计算机工程与应用》
CSCD
北大核心
2022年第9期83-90,共8页
在深度学习任务中,随机方差衰减梯度法通过降低随机梯度方差,因此,其具有较好的稳定性和较高的计算效率。然而,这类方法在学习过程中均使用恒定的学习率,降低了随机方差衰减梯度法的计算效率。基于随机方差衰减梯度法,借鉴动量加速思想...
在深度学习任务中,随机方差衰减梯度法通过降低随机梯度方差,因此,其具有较好的稳定性和较高的计算效率。然而,这类方法在学习过程中均使用恒定的学习率,降低了随机方差衰减梯度法的计算效率。基于随机方差衰减梯度法,借鉴动量加速思想并对梯度估计采取加权平均策略,对学习率利用历史梯度信息进行自动调整,提出了自适应随机方差衰减梯度法。基于MNIST和CIFAR-10数据集,验证提出的自适应随机方差衰减梯度法的有效性。实验结果表明,自适应随机方差衰减梯度法在收敛速度和稳定性方面优于随机方差衰减梯度法和随机梯度下降法。
展开更多
关键词
深度学习
随机
方差
衰减
梯度
法
自适应学习率
动量
法
下载PDF
职称材料
题名
基于Polyak步长的加速临近随机方差缩减算法
1
作者
王福胜
史鲁玉
机构
太原师范学院数学与统计学院
出处
《运筹学学报(中英文)》
CSCD
北大核心
2024年第2期131-142,共12页
基金
山西省基础研究计划(自由探索类)基金(No.202103021224303)。
文摘
针对大规模机器学习中随机复合优化问题,本文将加速临近随机方差缩减算法(Acc-Prox-SVRG)和Polyak步长方法相结合,提出了一种新的加速临近随机方差缩减算法(Acc-Prox-SVRG-Polyak)。相比于已有算法,新算法充分利用加速技术和Polyak步长的优越性,提高了准确率。在通常的假定下论证了算法的收敛性,并分析了复杂度。最后,数值实验验证了新算法的有效性。
关键词
Polyak步长
方差
缩减
机器学习
随机
梯度
Keywords
Polyak step size
variance reduction
machine learning
stochastic gradient
分类号
O221.2 [理学—运筹学与控制论]
下载PDF
职称材料
题名
带有随机改进Barzilai-Borwein步长的小批量稀疏随机方差缩减梯度法
2
作者
秦传东
杨旭
机构
北方民族大学数学与信息科学学院
宁夏智能信息与大数据处理重点实验室
出处
《计算机应用研究》
CSCD
北大核心
2023年第12期3655-3659,3665,共6页
基金
宁夏自然科学基金一般项目(2021AAC03230)。
文摘
为了更好地应对当今时代的大规模高维稀疏数据集,融合BB方法、小批量算法与随机方差缩减梯度法(SVRG)优势,提出一种带有随机改进Barzilai-Borwein步长的小批量稀疏随机方差缩减梯度法(MSSVRG-R2BB)。首先,在SVRG外循环中全梯度计算的基础上加入L_1范数次梯度设计出一种稀疏近似梯度用于内循环,得到一种稀疏的SVRG算法(SSVRG)。在此基础上,在小批量的稀疏随机方差缩减梯度法中使用随机选取的改进BB方法自动计算、更新步长,解决了小批量算法的步长选取问题,拓展得到MSSVRG-R2BB算法。数值实验表明,在求解大规模高维稀疏数据的线性支持向量机(SVM)问题时,MSSVRG-R2BB算法不仅可以减小运算成本、更快达到收敛上界,同时能达到与其他先进的小批量算法相同的优化水平,并且对于不同的初始参数选取表现稳定且良好。
关键词
随机
梯度
下降
法
小批量算
法
Barzilai-Borwein方
法
方差
缩减
凸优化
Keywords
stochastic gradient descent
small batch algorithm
Barzilai-Borwein method
variance reduction
convex optimization
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
分布式随机方差消减梯度下降算法topkSVRG
被引量:
5
3
作者
王建飞
亢良伊
刘杰
叶丹
机构
中国科学院软件研究所软件工程技术研发中心
中国科学院大学
出处
《计算机科学与探索》
CSCD
北大核心
2018年第7期1047-1054,共8页
基金
国家自然科学基金No.U1435220
北京市科技重大项目No.D171100003417002
民航科技重大专项No.MHRD20160109~~
文摘
机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具。随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(stochastic variance reduction gradient,SVRG)则可以达到线性的收敛率。SVRG是一种串行单机版算法,为了应对大规模数据集分布式训练问题,设计一种以SVRG算法思想为基础的分布式SVRG的实现算法topk SVRG。改进在于:主节点维护一个全局模型,从节点基于本地数据进行局部模型更新。每轮迭代时,选择与当前全局模型距离最小的k个局部模型进行平均来更新全局模型,参数k调大可以提高收敛速度,调小k可以保证收敛。理论分析了算法的线性收敛性,基于Spark进行算法实现,通过与Mini-Batch SGD、CoCoA、Splash及相关算法的实验比较,topkSVRG可以在高精度要求下更快地收敛。
关键词
机器学习
优化
随机
梯度
下降(SGD)
随机
方差
消减
梯度
法
(
svrg
)
分布式计算
Keywords
machine learning
optimization
stochastic gradient descent (SGD)
stochastic variance reduction gradient (
svrg
)
distributed computing
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
求解SVM的稀疏随机方差缩减梯度法
被引量:
3
4
作者
周晓君
于腾腾
机构
河北工业大学理学院
河北工业大学人工智能与数据科学学院
出处
《计算机应用研究》
CSCD
北大核心
2020年第S02期95-97,101,共4页
基金
国家自然科学基金资助项目(11271107)
文摘
针对随机梯度下降(SGD)算法解支持向量机(SVM)中存在步长的选取耗时且收敛速度较慢等问题,提出使用改进的Barzilai-Borwein(BB)法自动计算小批量随机方差减小的梯度法(MSVRG)的步长,来解决光滑化合页损失函数的支持向量机问题。针对高维稀疏数据下,SVRG在外循环的迭代中因全梯度的计算而变得稠密,使用稀疏近似梯度将MSVRG-BB算法拓展得到新的算法:MSSVRG-BB。数值实验表明,MSSVRG-BB算法不仅对初始参数的选取并不敏感,且与先进的小批量算法相比,对于求解大规模高维稀疏数据的线性SVM问题,稀疏近似梯度的使用使运算成本减小进而能够更快地达到收敛上界。
关键词
支持向量机
稀疏性
Barzilai-Borwein
小批量
随机
方差
减小
梯度
法
(
svrg
)
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
机器学习中随机方差缩减梯度算法的一种新的步长规则
被引量:
1
5
作者
杨一名
王福胜
机构
太原师范学院数学系
出处
《太原师范学院学报(自然科学版)》
2021年第4期37-42,共6页
基金
山西省回国留学人员科研项目(2017-104)
2021山西省应用基础研究计划项目(202107-202406).
文摘
针对大规模机器学习中常见的经验风险最小化问题,提出一种新的随机方差缩减梯度算法(SVRG-CABB).新算法结合了SVRG和复合BB步长的优势,对于初始步长的选取不敏感,在运算过程中通过动态调节步长,提高算法的运算效率.在标准数据集上的数值实验结果表明新算法是可行有效的.
关键词
机器学习
随机
梯度
方差
缩减
复合BB步长
Keywords
machine learning
stochastic gradient
variance reduced
composite BB step size
分类号
O224 [理学—运筹学与控制论]
下载PDF
职称材料
题名
批量减数更新方差缩减梯度下降算法BSUG
被引量:
6
6
作者
宋杰
朱勇
许冰
机构
安徽大学计算机科学与技术学院
出处
《计算机工程与应用》
CSCD
北大核心
2020年第22期117-123,共7页
基金
国家自然科学基金(No.61974001)。
文摘
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达到线性收敛而被人们广泛研究。它的提出导致陆续出现如SAGA(Stochastic Average Gradient Average)和SCSG(Stochastically Controlled Stochastic Gradient)等新型方差缩减算法,它们有着过量消耗内存、迭代缓慢等问题。为了实现小成本存储以及快速迭代的目的,设计了一种以SVRG为基础的新型变异方差缩减算法BSUG(Batch Subtraction Update Gradient)。改进在于:使用小批量样本代替全部样本进行平均梯度计算,同时对平均梯度进行减数更新。每轮迭代中,随机抽取一批小样本进行平均梯度计算,同时在内部迭代时通过对过去模型梯度的舍去来达到更新平均梯度的目的。通过合适地降低批大小B,可以减少内存存储以及迭代次数。理论分析算法的收敛性,并基于Python进行算法实现,通过与Mini-Batch SGD、AdaGrad、RMSProp、SVRG和SCSG等算法进行比较证明了BSUG算法的有效性,并且通过对超参数进行探究证明了算法的稳定性。
关键词
机器学习
优化
小批量
减数更新
随机
方差
缩减
梯度
法
(
svrg
)
Keywords
machine learning
optimization
mini batch
reduction update
Stochastic Variance Reduction Gradient(
svrg
)
分类号
TP301.6 [自动化与计算机技术—计算机系统结构]
下载PDF
职称材料
题名
非负Tucker分解的随机方差缩减乘性更新算法
7
作者
白姗姗
史加荣
机构
西安建筑科技大学理学院
出处
《南京理工大学学报》
EI
CAS
CSCD
北大核心
2021年第2期197-204,共8页
基金
国家自然科学基金(61403298)
陕西省自然科学基金(2021JM-378)。
文摘
为了降低乘性迭代算法在求解非负Tucker分解时的计算复杂度,该文在乘性迭代的基础上,提出了一种随机方差缩减乘性更新方法。该方法先将待分解的非负张量n-模式矩阵化,再运用随机方差缩减乘性更新算法对矩阵进行非负分解,得到模式矩阵,最后通过梯度下降思想来更新核心张量。对高维数据进行非负Tucker分解时,加快收敛速度且降低计算复杂度,提高了张量分解性能。在人工合成数据集及真实数据集上进行数值实验,结果验证了所提算法的可行性和有效性。
关键词
非负Tucker分解
随机
方差
缩减
梯度
算
法
乘性更新
梯度
下降
Keywords
non-negative Tucker decomposition
stochastic variance reduction gradient algorithm
multiplicative update
gradient descent
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于随机方差调整梯度的非负矩阵分解
被引量:
1
8
作者
史加荣
白姗姗
机构
西安建筑科技大学理学院
出处
《吉林大学学报(理学版)》
CAS
北大核心
2021年第1期128-135,共8页
基金
“十三五”国家重点研发计划项目(批准号:2018YFC0704500)
中国博士后科学基金(批准号:2017M613087).
文摘
针对求解非负矩阵分解的乘性更新规则存在计算复杂度高且迭代效率低等缺点,提出一种随机方差参数调整梯度的方法.将方差缩减策略和乘性更新规则相结合,通过引入一个调整随机梯度估计量的参数校正梯度下降方向使其偏差与方差达到平衡,从而能快速、准确地逼近最优解.在真实数据集上进行仿真实验,结果验证了该算法的可行性和有效性.
关键词
非负矩阵分解
随机
梯度
下降
参数调整
梯度
方差
缩减
乘性更新
Keywords
non-negative matrix factorization
stochastic gradient descent
parameter adjusted gradient
variance reduction
multiplicative update
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于随机方差减小方法的DDPG算法
被引量:
2
9
作者
杨薛钰
陈建平
傅启明
陆悠
吴宏杰
机构
苏州科技大学电子与信息工程学院
苏州科技大学江苏省建筑智慧节能重点实验室
苏州科技大学苏州市移动网络技术与应用重点实验室
珠海米枣智能科技有限公司
苏州科技大学苏州市虚拟现实智能交互与应用技术重点实验室
出处
《计算机工程与应用》
CSCD
北大核心
2021年第19期104-111,共8页
基金
国家自然科学基金(61876217,61876121,61772357,61750110519,61772355,61702055,61672371)
江苏省重点研发计划项目(BE2017663)。
文摘
针对深度确定性策略梯度算法(DDPG)收敛速度比较慢,训练不稳定,方差过大,样本应用效率低的问题,提出了一种基于随机方差减小梯度方法的深度确定性策略梯度算法(SVR-DDPG)。该算法通过利用随机方差减小梯度技术(SVRG)提出一种新的创新优化策略,将之运用到DDPG算法之中,在DDPG算法的参数更新过程中,加入了随机方差减小梯度技术,利用该方法的更新方式,使得估计的梯度方差有一个不断减小的上界,令方差不断缩小,从而在小的随机训练子集的基础上找到更加精确的梯度方向,以此来解决了由近似梯度估计误差引发的问题,加快了算法的收敛速度。将SVR-DDPG算法以及DDPG算法应用于Pendulum和Mountain Car问题,实验结果表明,SVR-DDPG算法具有比原算法更快的收敛速度,更好的稳定性,以此证明了算法的有效性。
关键词
深度强化学习
深度Q学习算
法
(DQN)
深度确定性策略
梯度
算
法
(DDPG)
随机
方差
缩减
梯度
技术
Keywords
deep reinforcement learning
Deep Q-Network(DQN)
Deep Deterministic Policy Gradient(DDPG)
stochastic variance reduced techniques
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
一种带矩限制的批量自适应方差缩减算法
10
作者
朱桂勇
雷家林
机构
浙江师范大学行知学院
浙江师范大学
出处
《应用数学进展》
2022年第12期9026-9038,共13页
文摘
诸多机器学习模型的训练过程可以归结为求解一个优化问题,传统的梯度下降算法及其变种的收敛速度并不能让人满意。本文在随机方差缩减梯度算法的基础上,结合了自适应学习率和矩限制的特点,并利用批量思想,选取大批量样本代替全部样本进行全局梯度的计算,选取小批量样本 进行参数的迭代更新,提出了带矩限制的批量自适应方差缩减算法,并对算法的收敛性进行了说明。通过基于MNIST的数值实验,验证了该算法的有效性,并探究得出实验参数对算法稳定性的影响。
关键词
机器学习
自适应学习率
矩限制
小批量
随机
方差
缩减
梯度
法
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
求解无约束优化问题的随机三项共轭梯度法
11
作者
刘蕾
薛丹
机构
青岛大学
出处
《应用数学进展》
2022年第7期4248-4267,共20页
文摘
为了求解无约束随机优化问题,我们提出了一种带方差缩减的随机三项共轭梯度法(STCGVR), 此方法可以用来解决非凸随机问题。 在算法的每次内循环迭代开始时,三项共轭梯度方向以最速 下降方向重新开始迭代,有效地提高了收敛速度。 在适当的条件下,讨论了该算法的性质和收敛 性。 数值结果表明,我们的方法对于求解机器学习问题具有巨大的潜力。
关键词
随机
近似
经验风险最小化
三项共轭
梯度
机器学习
方差
缩减
分类号
O29 [理学—应用数学]
下载PDF
职称材料
题名
带自适应学习率的加速随机方差缩减梯度法
被引量:
1
12
作者
陈国茗
于腾腾
刘新为
机构
河北工业大学理学院
河北工业大学人工智能与数据科学学院
出处
《数值计算与计算机应用》
2021年第3期215-225,共11页
文摘
由于随机方差缩减梯度(SVRG)法在求解经验风险最小化(ERM)问题时表现优异,近年来受到了广泛关注.与SVRG方法中使用固定的学习率不同,结合初始化偏差矫正技术,提出使用自适应方法来动态计算SVRG方法及其加速版本FSVRG方法的学习率,分别称为AdaSVRG方法和AdaFSVRG方法.收敛性分析表明,AdaSVRG方法和AdaFSVRG方法在强凸假设下均具有线性收敛速率.在标准数据集上的数值实验表明,在求解ERM问题时,AdaSVRG和AdaFSVRG需要更少的迭代次数就可以达到相同水平的优化间隙.
关键词
随机
梯度
法
方差
缩减
自适应学习率
初始化偏差矫正
动量加速.
Keywords
stochastic gradient method
variance reduction
adaptive learning rate
initialization bias correction
momentum acceleration
分类号
O224 [理学—运筹学与控制论]
原文传递
题名
AdaSVRG:自适应学习率加速SVRG
被引量:
2
13
作者
吉梦
何清龙
机构
贵州大学数学与统计学院
出处
《计算机工程与应用》
CSCD
北大核心
2022年第9期83-90,共8页
基金
国家自然科学基金(11801111)
贵州省科技计划(20191122)。
文摘
在深度学习任务中,随机方差衰减梯度法通过降低随机梯度方差,因此,其具有较好的稳定性和较高的计算效率。然而,这类方法在学习过程中均使用恒定的学习率,降低了随机方差衰减梯度法的计算效率。基于随机方差衰减梯度法,借鉴动量加速思想并对梯度估计采取加权平均策略,对学习率利用历史梯度信息进行自动调整,提出了自适应随机方差衰减梯度法。基于MNIST和CIFAR-10数据集,验证提出的自适应随机方差衰减梯度法的有效性。实验结果表明,自适应随机方差衰减梯度法在收敛速度和稳定性方面优于随机方差衰减梯度法和随机梯度下降法。
关键词
深度学习
随机
方差
衰减
梯度
法
自适应学习率
动量
法
Keywords
deep learning
stochastic variance-reduced gradient method
adaptive learning rate
momentum
分类号
TP301.6 [自动化与计算机技术—计算机系统结构]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于Polyak步长的加速临近随机方差缩减算法
王福胜
史鲁玉
《运筹学学报(中英文)》
CSCD
北大核心
2024
0
下载PDF
职称材料
2
带有随机改进Barzilai-Borwein步长的小批量稀疏随机方差缩减梯度法
秦传东
杨旭
《计算机应用研究》
CSCD
北大核心
2023
0
下载PDF
职称材料
3
分布式随机方差消减梯度下降算法topkSVRG
王建飞
亢良伊
刘杰
叶丹
《计算机科学与探索》
CSCD
北大核心
2018
5
下载PDF
职称材料
4
求解SVM的稀疏随机方差缩减梯度法
周晓君
于腾腾
《计算机应用研究》
CSCD
北大核心
2020
3
下载PDF
职称材料
5
机器学习中随机方差缩减梯度算法的一种新的步长规则
杨一名
王福胜
《太原师范学院学报(自然科学版)》
2021
1
下载PDF
职称材料
6
批量减数更新方差缩减梯度下降算法BSUG
宋杰
朱勇
许冰
《计算机工程与应用》
CSCD
北大核心
2020
6
下载PDF
职称材料
7
非负Tucker分解的随机方差缩减乘性更新算法
白姗姗
史加荣
《南京理工大学学报》
EI
CAS
CSCD
北大核心
2021
0
下载PDF
职称材料
8
基于随机方差调整梯度的非负矩阵分解
史加荣
白姗姗
《吉林大学学报(理学版)》
CAS
北大核心
2021
1
下载PDF
职称材料
9
基于随机方差减小方法的DDPG算法
杨薛钰
陈建平
傅启明
陆悠
吴宏杰
《计算机工程与应用》
CSCD
北大核心
2021
2
下载PDF
职称材料
10
一种带矩限制的批量自适应方差缩减算法
朱桂勇
雷家林
《应用数学进展》
2022
0
下载PDF
职称材料
11
求解无约束优化问题的随机三项共轭梯度法
刘蕾
薛丹
《应用数学进展》
2022
0
下载PDF
职称材料
12
带自适应学习率的加速随机方差缩减梯度法
陈国茗
于腾腾
刘新为
《数值计算与计算机应用》
2021
1
原文传递
13
AdaSVRG:自适应学习率加速SVRG
吉梦
何清龙
《计算机工程与应用》
CSCD
北大核心
2022
2
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部