期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
随机缩减法在拒绝型O’Brien & Fleming成组序贯设计中的应用研究
被引量:
3
1
作者
刘伟杰
谭旭辉
《中国卫生统计》
CSCD
北大核心
2019年第2期167-170,175,共5页
目的比较随机缩减法中条件功效和不同先验分布下的预测功效两类指标的优劣。方法以试验组和对照组的两样本均数比较的统计优效性检验为分析目的,在拒绝型O’Brien&Fleming(OBF法)成组序贯设计的条件下,通过设定不同SCP的拒绝阈值γ...
目的比较随机缩减法中条件功效和不同先验分布下的预测功效两类指标的优劣。方法以试验组和对照组的两样本均数比较的统计优效性检验为分析目的,在拒绝型O’Brien&Fleming(OBF法)成组序贯设计的条件下,通过设定不同SCP的拒绝阈值γ,在每个期中分析阶段计算CP及不同先验下的PP,并计算各指标相应的Ⅰ类错误、检验功效Power、平均样本量以及平均阶段数。结果当SCP终止条件为γ=0.80,无信息先验PP的Ⅰ类错误能稳定在0.05处左右,而CP和enthusiastic先验PP的Ⅰ类错误则出现明显膨胀;当SCP终止阈值为0.85和0.90,能明显抑制CP和不同先验下的PP的Ⅰ类错误的膨胀;当五阶段OBF功效设定在90%及SCP终止阈值为0.80的条件下,CP、无信息先验PP以及enthusiastic先验PP功效分别为87.6%、84%和86.5%。结论在期中分析次数较多的OBF成组序贯设计条件下,无信息先验PP效果优于CP;在阳性研究中,SCP能大幅减少成组序贯试验所需的期望样本量和期望阶段数。随着SCP终止阈值的增大以及期中分析次数的减少,CP和不同先验PP的功效均会出现明显的下降,而CP和不同先验PP的Ⅰ类错误的膨胀则会被抑制。随机缩减法相关指标对于临床试验有效性监测具有较高的参考价值。
展开更多
关键词
成组序贯设计
随机缩减法
贝叶斯
先验分布
下载PDF
职称材料
批量减数更新方差缩减梯度下降算法BSUG
被引量:
6
2
作者
宋杰
朱勇
许冰
《计算机工程与应用》
CSCD
北大核心
2020年第22期117-123,共7页
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达...
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达到线性收敛而被人们广泛研究。它的提出导致陆续出现如SAGA(Stochastic Average Gradient Average)和SCSG(Stochastically Controlled Stochastic Gradient)等新型方差缩减算法,它们有着过量消耗内存、迭代缓慢等问题。为了实现小成本存储以及快速迭代的目的,设计了一种以SVRG为基础的新型变异方差缩减算法BSUG(Batch Subtraction Update Gradient)。改进在于:使用小批量样本代替全部样本进行平均梯度计算,同时对平均梯度进行减数更新。每轮迭代中,随机抽取一批小样本进行平均梯度计算,同时在内部迭代时通过对过去模型梯度的舍去来达到更新平均梯度的目的。通过合适地降低批大小B,可以减少内存存储以及迭代次数。理论分析算法的收敛性,并基于Python进行算法实现,通过与Mini-Batch SGD、AdaGrad、RMSProp、SVRG和SCSG等算法进行比较证明了BSUG算法的有效性,并且通过对超参数进行探究证明了算法的稳定性。
展开更多
关键词
机器学习
优化
小批量
减数更新
随机
方差
缩减
梯度
法
(SVRG)
下载PDF
职称材料
一种带矩限制的批量自适应方差缩减算法
3
作者
朱桂勇
雷家林
《应用数学进展》
2022年第12期9026-9038,共13页
诸多机器学习模型的训练过程可以归结为求解一个优化问题,传统的梯度下降算法及其变种的收敛速度并不能让人满意。本文在随机方差缩减梯度算法的基础上,结合了自适应学习率和矩限制的特点,并利用批量思想,选取大批量样本代替全部样本进...
诸多机器学习模型的训练过程可以归结为求解一个优化问题,传统的梯度下降算法及其变种的收敛速度并不能让人满意。本文在随机方差缩减梯度算法的基础上,结合了自适应学习率和矩限制的特点,并利用批量思想,选取大批量样本代替全部样本进行全局梯度的计算,选取小批量样本 进行参数的迭代更新,提出了带矩限制的批量自适应方差缩减算法,并对算法的收敛性进行了说明。通过基于MNIST的数值实验,验证了该算法的有效性,并探究得出实验参数对算法稳定性的影响。
展开更多
关键词
机器学习
自适应学习率
矩限制
小批量
随机
方差
缩减
梯度
法
下载PDF
职称材料
题名
随机缩减法在拒绝型O’Brien & Fleming成组序贯设计中的应用研究
被引量:
3
1
作者
刘伟杰
谭旭辉
机构
南方医科大学公共卫生学院生物统计学系
出处
《中国卫生统计》
CSCD
北大核心
2019年第2期167-170,175,共5页
基金
国家自然科学基金(81302515)
高等学校博士学科点专项科研基金新教师类资助课题(20134433120023)
广东省自然科学基金(S2013040013902)
文摘
目的比较随机缩减法中条件功效和不同先验分布下的预测功效两类指标的优劣。方法以试验组和对照组的两样本均数比较的统计优效性检验为分析目的,在拒绝型O’Brien&Fleming(OBF法)成组序贯设计的条件下,通过设定不同SCP的拒绝阈值γ,在每个期中分析阶段计算CP及不同先验下的PP,并计算各指标相应的Ⅰ类错误、检验功效Power、平均样本量以及平均阶段数。结果当SCP终止条件为γ=0.80,无信息先验PP的Ⅰ类错误能稳定在0.05处左右,而CP和enthusiastic先验PP的Ⅰ类错误则出现明显膨胀;当SCP终止阈值为0.85和0.90,能明显抑制CP和不同先验下的PP的Ⅰ类错误的膨胀;当五阶段OBF功效设定在90%及SCP终止阈值为0.80的条件下,CP、无信息先验PP以及enthusiastic先验PP功效分别为87.6%、84%和86.5%。结论在期中分析次数较多的OBF成组序贯设计条件下,无信息先验PP效果优于CP;在阳性研究中,SCP能大幅减少成组序贯试验所需的期望样本量和期望阶段数。随着SCP终止阈值的增大以及期中分析次数的减少,CP和不同先验PP的功效均会出现明显的下降,而CP和不同先验PP的Ⅰ类错误的膨胀则会被抑制。随机缩减法相关指标对于临床试验有效性监测具有较高的参考价值。
关键词
成组序贯设计
随机缩减法
贝叶斯
先验分布
Keywords
Group sequential design
Stochastic curtailment procedure
Bayes
Prior distribution
分类号
R195.1 [医药卫生—卫生统计学]
下载PDF
职称材料
题名
批量减数更新方差缩减梯度下降算法BSUG
被引量:
6
2
作者
宋杰
朱勇
许冰
机构
安徽大学计算机科学与技术学院
出处
《计算机工程与应用》
CSCD
北大核心
2020年第22期117-123,共7页
基金
国家自然科学基金(No.61974001)。
文摘
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达到线性收敛而被人们广泛研究。它的提出导致陆续出现如SAGA(Stochastic Average Gradient Average)和SCSG(Stochastically Controlled Stochastic Gradient)等新型方差缩减算法,它们有着过量消耗内存、迭代缓慢等问题。为了实现小成本存储以及快速迭代的目的,设计了一种以SVRG为基础的新型变异方差缩减算法BSUG(Batch Subtraction Update Gradient)。改进在于:使用小批量样本代替全部样本进行平均梯度计算,同时对平均梯度进行减数更新。每轮迭代中,随机抽取一批小样本进行平均梯度计算,同时在内部迭代时通过对过去模型梯度的舍去来达到更新平均梯度的目的。通过合适地降低批大小B,可以减少内存存储以及迭代次数。理论分析算法的收敛性,并基于Python进行算法实现,通过与Mini-Batch SGD、AdaGrad、RMSProp、SVRG和SCSG等算法进行比较证明了BSUG算法的有效性,并且通过对超参数进行探究证明了算法的稳定性。
关键词
机器学习
优化
小批量
减数更新
随机
方差
缩减
梯度
法
(SVRG)
Keywords
machine learning
optimization
mini batch
reduction update
Stochastic Variance Reduction Gradient(SVRG)
分类号
TP301.6 [自动化与计算机技术—计算机系统结构]
下载PDF
职称材料
题名
一种带矩限制的批量自适应方差缩减算法
3
作者
朱桂勇
雷家林
机构
浙江师范大学行知学院
浙江师范大学
出处
《应用数学进展》
2022年第12期9026-9038,共13页
文摘
诸多机器学习模型的训练过程可以归结为求解一个优化问题,传统的梯度下降算法及其变种的收敛速度并不能让人满意。本文在随机方差缩减梯度算法的基础上,结合了自适应学习率和矩限制的特点,并利用批量思想,选取大批量样本代替全部样本进行全局梯度的计算,选取小批量样本 进行参数的迭代更新,提出了带矩限制的批量自适应方差缩减算法,并对算法的收敛性进行了说明。通过基于MNIST的数值实验,验证了该算法的有效性,并探究得出实验参数对算法稳定性的影响。
关键词
机器学习
自适应学习率
矩限制
小批量
随机
方差
缩减
梯度
法
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
随机缩减法在拒绝型O’Brien & Fleming成组序贯设计中的应用研究
刘伟杰
谭旭辉
《中国卫生统计》
CSCD
北大核心
2019
3
下载PDF
职称材料
2
批量减数更新方差缩减梯度下降算法BSUG
宋杰
朱勇
许冰
《计算机工程与应用》
CSCD
北大核心
2020
6
下载PDF
职称材料
3
一种带矩限制的批量自适应方差缩减算法
朱桂勇
雷家林
《应用数学进展》
2022
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部