期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
6
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
分布式随机方差消减梯度下降算法topkSVRG
被引量:
5
1
作者
王建飞
亢良伊
+1 位作者
刘杰
叶丹
《计算机科学与探索》
CSCD
北大核心
2018年第7期1047-1054,共8页
机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具。随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(...
机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具。随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(stochastic variance reduction gradient,SVRG)则可以达到线性的收敛率。SVRG是一种串行单机版算法,为了应对大规模数据集分布式训练问题,设计一种以SVRG算法思想为基础的分布式SVRG的实现算法topk SVRG。改进在于:主节点维护一个全局模型,从节点基于本地数据进行局部模型更新。每轮迭代时,选择与当前全局模型距离最小的k个局部模型进行平均来更新全局模型,参数k调大可以提高收敛速度,调小k可以保证收敛。理论分析了算法的线性收敛性,基于Spark进行算法实现,通过与Mini-Batch SGD、CoCoA、Splash及相关算法的实验比较,topkSVRG可以在高精度要求下更快地收敛。
展开更多
关键词
机器学习
优化
随机梯度下降(SGD)
随机方差消减梯度法(
svrg
)
分布式计算
下载PDF
职称材料
AdaSVRG:自适应学习率加速SVRG
被引量:
2
2
作者
吉梦
何清龙
《计算机工程与应用》
CSCD
北大核心
2022年第9期83-90,共8页
在深度学习任务中,随机方差衰减梯度法通过降低随机梯度方差,因此,其具有较好的稳定性和较高的计算效率。然而,这类方法在学习过程中均使用恒定的学习率,降低了随机方差衰减梯度法的计算效率。基于随机方差衰减梯度法,借鉴动量加速思想...
在深度学习任务中,随机方差衰减梯度法通过降低随机梯度方差,因此,其具有较好的稳定性和较高的计算效率。然而,这类方法在学习过程中均使用恒定的学习率,降低了随机方差衰减梯度法的计算效率。基于随机方差衰减梯度法,借鉴动量加速思想并对梯度估计采取加权平均策略,对学习率利用历史梯度信息进行自动调整,提出了自适应随机方差衰减梯度法。基于MNIST和CIFAR-10数据集,验证提出的自适应随机方差衰减梯度法的有效性。实验结果表明,自适应随机方差衰减梯度法在收敛速度和稳定性方面优于随机方差衰减梯度法和随机梯度下降法。
展开更多
关键词
深度学习
随机方差衰减梯度法
自适应学习率
动量法
下载PDF
职称材料
代价敏感惩罚AdaBoost算法的非平衡数据分类
被引量:
5
3
作者
鲁淑霞
张振莲
翟俊海
《南京航空航天大学学报》
CAS
CSCD
北大核心
2023年第2期339-346,共8页
针对非平衡数据分类问题,提出了一种基于代价敏感的惩罚AdaBoost算法。在惩罚Adaboost算法中,引入一种新的自适应代价敏感函数,赋予少数类样本及分错的少数类样本更高的代价值,并通过引入惩罚机制增大了样本的平均间隔。选择加权支持向...
针对非平衡数据分类问题,提出了一种基于代价敏感的惩罚AdaBoost算法。在惩罚Adaboost算法中,引入一种新的自适应代价敏感函数,赋予少数类样本及分错的少数类样本更高的代价值,并通过引入惩罚机制增大了样本的平均间隔。选择加权支持向量机(Support vector machine,SVM)优化模型作为基分类器,采用带有方差减小的随机梯度下降方法(Stochastic variance reduced gradient,SVRG)对优化模型进行求解。对比实验表明,本文提出的算法不但在几何均值(G-mean)和ROC曲线下的面积(Area under ROC curve,AUC)上明显优于其他算法,而且获得了较大的平均间隔,显示了本文算法在处理非平衡数据分类问题上的有效性。
展开更多
关键词
非平衡数据
惩罚AdaBoost
自适应代价敏感函数
平均间隔
随机梯度下降
下载PDF
职称材料
批量减数更新方差缩减梯度下降算法BSUG
被引量:
6
4
作者
宋杰
朱勇
许冰
《计算机工程与应用》
CSCD
北大核心
2020年第22期117-123,共7页
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达...
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达到线性收敛而被人们广泛研究。它的提出导致陆续出现如SAGA(Stochastic Average Gradient Average)和SCSG(Stochastically Controlled Stochastic Gradient)等新型方差缩减算法,它们有着过量消耗内存、迭代缓慢等问题。为了实现小成本存储以及快速迭代的目的,设计了一种以SVRG为基础的新型变异方差缩减算法BSUG(Batch Subtraction Update Gradient)。改进在于:使用小批量样本代替全部样本进行平均梯度计算,同时对平均梯度进行减数更新。每轮迭代中,随机抽取一批小样本进行平均梯度计算,同时在内部迭代时通过对过去模型梯度的舍去来达到更新平均梯度的目的。通过合适地降低批大小B,可以减少内存存储以及迭代次数。理论分析算法的收敛性,并基于Python进行算法实现,通过与Mini-Batch SGD、AdaGrad、RMSProp、SVRG和SCSG等算法进行比较证明了BSUG算法的有效性,并且通过对超参数进行探究证明了算法的稳定性。
展开更多
关键词
机器学习
优化
小批量
减数更新
随机方差缩减梯度法(
svrg
)
下载PDF
职称材料
基于随机方差减小方法的DDPG算法
被引量:
2
5
作者
杨薛钰
陈建平
+2 位作者
傅启明
陆悠
吴宏杰
《计算机工程与应用》
CSCD
北大核心
2021年第19期104-111,共8页
针对深度确定性策略梯度算法(DDPG)收敛速度比较慢,训练不稳定,方差过大,样本应用效率低的问题,提出了一种基于随机方差减小梯度方法的深度确定性策略梯度算法(SVR-DDPG)。该算法通过利用随机方差减小梯度技术(SVRG)提出一种新的创新优...
针对深度确定性策略梯度算法(DDPG)收敛速度比较慢,训练不稳定,方差过大,样本应用效率低的问题,提出了一种基于随机方差减小梯度方法的深度确定性策略梯度算法(SVR-DDPG)。该算法通过利用随机方差减小梯度技术(SVRG)提出一种新的创新优化策略,将之运用到DDPG算法之中,在DDPG算法的参数更新过程中,加入了随机方差减小梯度技术,利用该方法的更新方式,使得估计的梯度方差有一个不断减小的上界,令方差不断缩小,从而在小的随机训练子集的基础上找到更加精确的梯度方向,以此来解决了由近似梯度估计误差引发的问题,加快了算法的收敛速度。将SVR-DDPG算法以及DDPG算法应用于Pendulum和Mountain Car问题,实验结果表明,SVR-DDPG算法具有比原算法更快的收敛速度,更好的稳定性,以此证明了算法的有效性。
展开更多
关键词
深度强化学习
深度Q学习算法(DQN)
深度确定性策略梯度算法(DDPG)
随机方差缩减梯度技术
下载PDF
职称材料
机器学习中随机方差缩减梯度算法的一种新的步长规则
被引量:
1
6
作者
杨一名
王福胜
《太原师范学院学报(自然科学版)》
2021年第4期37-42,共6页
针对大规模机器学习中常见的经验风险最小化问题,提出一种新的随机方差缩减梯度算法(SVRG-CABB).新算法结合了SVRG和复合BB步长的优势,对于初始步长的选取不敏感,在运算过程中通过动态调节步长,提高算法的运算效率.在标准数据集上的数...
针对大规模机器学习中常见的经验风险最小化问题,提出一种新的随机方差缩减梯度算法(SVRG-CABB).新算法结合了SVRG和复合BB步长的优势,对于初始步长的选取不敏感,在运算过程中通过动态调节步长,提高算法的运算效率.在标准数据集上的数值实验结果表明新算法是可行有效的.
展开更多
关键词
机器学习
随机梯度
方差缩减
复合BB步长
下载PDF
职称材料
题名
分布式随机方差消减梯度下降算法topkSVRG
被引量:
5
1
作者
王建飞
亢良伊
刘杰
叶丹
机构
中国科学院软件研究所软件工程技术研发中心
中国科学院大学
出处
《计算机科学与探索》
CSCD
北大核心
2018年第7期1047-1054,共8页
基金
国家自然科学基金No.U1435220
北京市科技重大项目No.D171100003417002
民航科技重大专项No.MHRD20160109~~
文摘
机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具。随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(stochastic variance reduction gradient,SVRG)则可以达到线性的收敛率。SVRG是一种串行单机版算法,为了应对大规模数据集分布式训练问题,设计一种以SVRG算法思想为基础的分布式SVRG的实现算法topk SVRG。改进在于:主节点维护一个全局模型,从节点基于本地数据进行局部模型更新。每轮迭代时,选择与当前全局模型距离最小的k个局部模型进行平均来更新全局模型,参数k调大可以提高收敛速度,调小k可以保证收敛。理论分析了算法的线性收敛性,基于Spark进行算法实现,通过与Mini-Batch SGD、CoCoA、Splash及相关算法的实验比较,topkSVRG可以在高精度要求下更快地收敛。
关键词
机器学习
优化
随机梯度下降(SGD)
随机方差消减梯度法(
svrg
)
分布式计算
Keywords
machine learning
optimization
stochastic
gradient
descent (SGD)
stochastic
variance
reduction
gradient
(
svrg
)
distributed computing
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
AdaSVRG:自适应学习率加速SVRG
被引量:
2
2
作者
吉梦
何清龙
机构
贵州大学数学与统计学院
出处
《计算机工程与应用》
CSCD
北大核心
2022年第9期83-90,共8页
基金
国家自然科学基金(11801111)
贵州省科技计划(20191122)。
文摘
在深度学习任务中,随机方差衰减梯度法通过降低随机梯度方差,因此,其具有较好的稳定性和较高的计算效率。然而,这类方法在学习过程中均使用恒定的学习率,降低了随机方差衰减梯度法的计算效率。基于随机方差衰减梯度法,借鉴动量加速思想并对梯度估计采取加权平均策略,对学习率利用历史梯度信息进行自动调整,提出了自适应随机方差衰减梯度法。基于MNIST和CIFAR-10数据集,验证提出的自适应随机方差衰减梯度法的有效性。实验结果表明,自适应随机方差衰减梯度法在收敛速度和稳定性方面优于随机方差衰减梯度法和随机梯度下降法。
关键词
深度学习
随机方差衰减梯度法
自适应学习率
动量法
Keywords
deep learning
stochastic
variance
-
reduced
gradient
method
adaptive learning rate
momentum
分类号
TP301.6 [自动化与计算机技术—计算机系统结构]
下载PDF
职称材料
题名
代价敏感惩罚AdaBoost算法的非平衡数据分类
被引量:
5
3
作者
鲁淑霞
张振莲
翟俊海
机构
河北大学数学与信息科学学院
出处
《南京航空航天大学学报》
CAS
CSCD
北大核心
2023年第2期339-346,共8页
基金
河北省科技计划重点研发项目(19210310D)
河北省自然科学基金(F2021201020)。
文摘
针对非平衡数据分类问题,提出了一种基于代价敏感的惩罚AdaBoost算法。在惩罚Adaboost算法中,引入一种新的自适应代价敏感函数,赋予少数类样本及分错的少数类样本更高的代价值,并通过引入惩罚机制增大了样本的平均间隔。选择加权支持向量机(Support vector machine,SVM)优化模型作为基分类器,采用带有方差减小的随机梯度下降方法(Stochastic variance reduced gradient,SVRG)对优化模型进行求解。对比实验表明,本文提出的算法不但在几何均值(G-mean)和ROC曲线下的面积(Area under ROC curve,AUC)上明显优于其他算法,而且获得了较大的平均间隔,显示了本文算法在处理非平衡数据分类问题上的有效性。
关键词
非平衡数据
惩罚AdaBoost
自适应代价敏感函数
平均间隔
随机梯度下降
Keywords
imbalanced data
penalized AdaBoost
adaptive cost sensitive function
average margin
stochastic
variance
reduced
gradient
(
svrg
)
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
批量减数更新方差缩减梯度下降算法BSUG
被引量:
6
4
作者
宋杰
朱勇
许冰
机构
安徽大学计算机科学与技术学院
出处
《计算机工程与应用》
CSCD
北大核心
2020年第22期117-123,共7页
基金
国家自然科学基金(No.61974001)。
文摘
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达到线性收敛而被人们广泛研究。它的提出导致陆续出现如SAGA(Stochastic Average Gradient Average)和SCSG(Stochastically Controlled Stochastic Gradient)等新型方差缩减算法,它们有着过量消耗内存、迭代缓慢等问题。为了实现小成本存储以及快速迭代的目的,设计了一种以SVRG为基础的新型变异方差缩减算法BSUG(Batch Subtraction Update Gradient)。改进在于:使用小批量样本代替全部样本进行平均梯度计算,同时对平均梯度进行减数更新。每轮迭代中,随机抽取一批小样本进行平均梯度计算,同时在内部迭代时通过对过去模型梯度的舍去来达到更新平均梯度的目的。通过合适地降低批大小B,可以减少内存存储以及迭代次数。理论分析算法的收敛性,并基于Python进行算法实现,通过与Mini-Batch SGD、AdaGrad、RMSProp、SVRG和SCSG等算法进行比较证明了BSUG算法的有效性,并且通过对超参数进行探究证明了算法的稳定性。
关键词
机器学习
优化
小批量
减数更新
随机方差缩减梯度法(
svrg
)
Keywords
machine learning
optimization
mini batch
reduction update
stochastic
variance
Reduction
gradient
(
svrg
)
分类号
TP301.6 [自动化与计算机技术—计算机系统结构]
下载PDF
职称材料
题名
基于随机方差减小方法的DDPG算法
被引量:
2
5
作者
杨薛钰
陈建平
傅启明
陆悠
吴宏杰
机构
苏州科技大学电子与信息工程学院
苏州科技大学江苏省建筑智慧节能重点实验室
苏州科技大学苏州市移动网络技术与应用重点实验室
珠海米枣智能科技有限公司
苏州科技大学苏州市虚拟现实智能交互与应用技术重点实验室
出处
《计算机工程与应用》
CSCD
北大核心
2021年第19期104-111,共8页
基金
国家自然科学基金(61876217,61876121,61772357,61750110519,61772355,61702055,61672371)
江苏省重点研发计划项目(BE2017663)。
文摘
针对深度确定性策略梯度算法(DDPG)收敛速度比较慢,训练不稳定,方差过大,样本应用效率低的问题,提出了一种基于随机方差减小梯度方法的深度确定性策略梯度算法(SVR-DDPG)。该算法通过利用随机方差减小梯度技术(SVRG)提出一种新的创新优化策略,将之运用到DDPG算法之中,在DDPG算法的参数更新过程中,加入了随机方差减小梯度技术,利用该方法的更新方式,使得估计的梯度方差有一个不断减小的上界,令方差不断缩小,从而在小的随机训练子集的基础上找到更加精确的梯度方向,以此来解决了由近似梯度估计误差引发的问题,加快了算法的收敛速度。将SVR-DDPG算法以及DDPG算法应用于Pendulum和Mountain Car问题,实验结果表明,SVR-DDPG算法具有比原算法更快的收敛速度,更好的稳定性,以此证明了算法的有效性。
关键词
深度强化学习
深度Q学习算法(DQN)
深度确定性策略梯度算法(DDPG)
随机方差缩减梯度技术
Keywords
deep reinforcement learning
Deep Q-Network(DQN)
Deep Deterministic Policy
gradient
(DDPG)
stochastic
variance
reduced
techniques
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
机器学习中随机方差缩减梯度算法的一种新的步长规则
被引量:
1
6
作者
杨一名
王福胜
机构
太原师范学院数学系
出处
《太原师范学院学报(自然科学版)》
2021年第4期37-42,共6页
基金
山西省回国留学人员科研项目(2017-104)
2021山西省应用基础研究计划项目(202107-202406).
文摘
针对大规模机器学习中常见的经验风险最小化问题,提出一种新的随机方差缩减梯度算法(SVRG-CABB).新算法结合了SVRG和复合BB步长的优势,对于初始步长的选取不敏感,在运算过程中通过动态调节步长,提高算法的运算效率.在标准数据集上的数值实验结果表明新算法是可行有效的.
关键词
机器学习
随机梯度
方差缩减
复合BB步长
Keywords
machine learning
stochastic
gradient
variance
reduced
composite BB step size
分类号
O224 [理学—运筹学与控制论]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
分布式随机方差消减梯度下降算法topkSVRG
王建飞
亢良伊
刘杰
叶丹
《计算机科学与探索》
CSCD
北大核心
2018
5
下载PDF
职称材料
2
AdaSVRG:自适应学习率加速SVRG
吉梦
何清龙
《计算机工程与应用》
CSCD
北大核心
2022
2
下载PDF
职称材料
3
代价敏感惩罚AdaBoost算法的非平衡数据分类
鲁淑霞
张振莲
翟俊海
《南京航空航天大学学报》
CAS
CSCD
北大核心
2023
5
下载PDF
职称材料
4
批量减数更新方差缩减梯度下降算法BSUG
宋杰
朱勇
许冰
《计算机工程与应用》
CSCD
北大核心
2020
6
下载PDF
职称材料
5
基于随机方差减小方法的DDPG算法
杨薛钰
陈建平
傅启明
陆悠
吴宏杰
《计算机工程与应用》
CSCD
北大核心
2021
2
下载PDF
职称材料
6
机器学习中随机方差缩减梯度算法的一种新的步长规则
杨一名
王福胜
《太原师范学院学报(自然科学版)》
2021
1
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部