期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
一种求解强凸优化问题的最优随机算法
被引量:
11
1
作者
邵言剑
陶卿
+1 位作者
姜纪远
周柏
《软件学报》
EI
CSCD
北大核心
2014年第9期2160-2171,共12页
随机梯度下降(SGD)算法是处理大规模数据的有效方法之一.黑箱方法SGD在强凸条件下能达到最优的O(1/T)收敛速率,但对于求解L1+L2正则化学习问题的结构优化算法,如COMID(composite objective mirror descent)仅具有O(lnT/T)的收敛速率.提...
随机梯度下降(SGD)算法是处理大规模数据的有效方法之一.黑箱方法SGD在强凸条件下能达到最优的O(1/T)收敛速率,但对于求解L1+L2正则化学习问题的结构优化算法,如COMID(composite objective mirror descent)仅具有O(lnT/T)的收敛速率.提出一种能够保证稀疏性基于COMID的加权算法,证明了其不仅具有O(1/T)的收敛速率,还具有on-the-fly计算的优点,从而减少了计算代价.实验结果表明了理论分析的正确性和所提算法的有效性.
展开更多
关键词
机器学习
随机优
化
强凸问题
混合正则化项
COMID
(composite
objective
MIRROR
descent)
下载PDF
职称材料
题名
一种求解强凸优化问题的最优随机算法
被引量:
11
1
作者
邵言剑
陶卿
姜纪远
周柏
机构
中国人民解放军陆军军官学院十一系
出处
《软件学报》
EI
CSCD
北大核心
2014年第9期2160-2171,共12页
基金
国家自然科学基金(61273296)
文摘
随机梯度下降(SGD)算法是处理大规模数据的有效方法之一.黑箱方法SGD在强凸条件下能达到最优的O(1/T)收敛速率,但对于求解L1+L2正则化学习问题的结构优化算法,如COMID(composite objective mirror descent)仅具有O(lnT/T)的收敛速率.提出一种能够保证稀疏性基于COMID的加权算法,证明了其不仅具有O(1/T)的收敛速率,还具有on-the-fly计算的优点,从而减少了计算代价.实验结果表明了理论分析的正确性和所提算法的有效性.
关键词
机器学习
随机优
化
强凸问题
混合正则化项
COMID
(composite
objective
MIRROR
descent)
Keywords
machine learning
stochastic optimization
strongly-convex
hybrid regularization
COMID(composite objective mirror descent)
分类号
TP301 [自动化与计算机技术—计算机系统结构]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
一种求解强凸优化问题的最优随机算法
邵言剑
陶卿
姜纪远
周柏
《软件学报》
EI
CSCD
北大核心
2014
11
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部