期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
一种求解强凸优化问题的最优随机算法 被引量:11
1
作者 邵言剑 陶卿 +1 位作者 姜纪远 周柏 《软件学报》 EI CSCD 北大核心 2014年第9期2160-2171,共12页
随机梯度下降(SGD)算法是处理大规模数据的有效方法之一.黑箱方法SGD在强凸条件下能达到最优的O(1/T)收敛速率,但对于求解L1+L2正则化学习问题的结构优化算法,如COMID(composite objective mirror descent)仅具有O(lnT/T)的收敛速率.提... 随机梯度下降(SGD)算法是处理大规模数据的有效方法之一.黑箱方法SGD在强凸条件下能达到最优的O(1/T)收敛速率,但对于求解L1+L2正则化学习问题的结构优化算法,如COMID(composite objective mirror descent)仅具有O(lnT/T)的收敛速率.提出一种能够保证稀疏性基于COMID的加权算法,证明了其不仅具有O(1/T)的收敛速率,还具有on-the-fly计算的优点,从而减少了计算代价.实验结果表明了理论分析的正确性和所提算法的有效性. 展开更多
关键词 机器学习 随机优 强凸问题 混合正则化项 COMID (composite objective MIRROR descent)
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部