期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
随机ADD算法的不确定网络优化研究
1
作者
李冬梅
刘艳
《计算机应用研究》
CSCD
北大核心
2014年第12期3808-3812,共5页
传统的网络优化问题通过对偶梯度下降算法来解决,虽然该算法能够以分布式方式来实现,但其收敛速度较慢。加速对偶下降算法(ADD)通过近似牛顿步长的分布式计算,提高了对偶梯度下降算法的收敛速率。但由于通信网络的不确定性,在约束不确定...
传统的网络优化问题通过对偶梯度下降算法来解决,虽然该算法能够以分布式方式来实现,但其收敛速度较慢。加速对偶下降算法(ADD)通过近似牛顿步长的分布式计算,提高了对偶梯度下降算法的收敛速率。但由于通信网络的不确定性,在约束不确定时,该算法的收敛性难以保证。基于此,提出了一种随机形式的ADD算法来解决该网络优化问题。理论上证明了随机ADD算法当不确定性的均方误差有界时,能以较高概率收敛于最优值的一个误差邻域;当给出更严格的不确定性的约束条件时,算法则可以较高概率收敛于最优值。实验结果表明,随机ADD算法的收敛速率比随机梯度下降算法快两个数量级。
展开更多
关键词
网络优化
加速对偶梯度下降算法
随机
add
收敛速率
下载PDF
职称材料
基于随机加速对偶下降算法的分布式网络流量优化
被引量:
2
2
作者
刘琳
杨丽芳
《重庆邮电大学学报(自然科学版)》
CSCD
北大核心
2014年第6期838-844,共7页
传统的分布式网络流量优化问题大都通过对偶梯度下降算法来解决,虽然该算法能够以分布式方式来实现,但其收敛速度较慢。加速对偶下降(accelerated dual descent,ADD)算法通过近似牛顿步长的分布式计算,提高了对偶梯度下降算法的收敛速...
传统的分布式网络流量优化问题大都通过对偶梯度下降算法来解决,虽然该算法能够以分布式方式来实现,但其收敛速度较慢。加速对偶下降(accelerated dual descent,ADD)算法通过近似牛顿步长的分布式计算,提高了对偶梯度下降算法的收敛速率。但由于通信网络的不确定性,在约束不确定时,该算法的收敛性难以保证。基于此,提出了一种随机形式的ADD算法来解决该网络优化问题。理论上证明了随机ADD算法在不确定性的均方误差有界时,能以较高概率收敛于最优值的一个误差邻域;当给出更严格的不确定性的约束条件时,算法则可以较高概率收敛于最优值。实验结果表明,随机ADD算法的收敛速率比随机梯度下降算法快2个数量级。
展开更多
关键词
加速对偶下降算法
随机加速对偶下降(
add
)算法
网络优化
收敛速率
原文传递
题名
随机ADD算法的不确定网络优化研究
1
作者
李冬梅
刘艳
机构
南阳理工学院计算机与信息工程学院
中州大学信息工程学院
出处
《计算机应用研究》
CSCD
北大核心
2014年第12期3808-3812,共5页
基金
河南省科技厅资助项目(132102210214)
文摘
传统的网络优化问题通过对偶梯度下降算法来解决,虽然该算法能够以分布式方式来实现,但其收敛速度较慢。加速对偶下降算法(ADD)通过近似牛顿步长的分布式计算,提高了对偶梯度下降算法的收敛速率。但由于通信网络的不确定性,在约束不确定时,该算法的收敛性难以保证。基于此,提出了一种随机形式的ADD算法来解决该网络优化问题。理论上证明了随机ADD算法当不确定性的均方误差有界时,能以较高概率收敛于最优值的一个误差邻域;当给出更严格的不确定性的约束条件时,算法则可以较高概率收敛于最优值。实验结果表明,随机ADD算法的收敛速率比随机梯度下降算法快两个数量级。
关键词
网络优化
加速对偶梯度下降算法
随机
add
收敛速率
Keywords
network optimization
accelerated dual descent(add) algorithm
stochastic
add
convergence rate
分类号
TP393.02 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于随机加速对偶下降算法的分布式网络流量优化
被引量:
2
2
作者
刘琳
杨丽芳
机构
重庆电子工程职业学院计算机学院
出处
《重庆邮电大学学报(自然科学版)》
CSCD
北大核心
2014年第6期838-844,共7页
文摘
传统的分布式网络流量优化问题大都通过对偶梯度下降算法来解决,虽然该算法能够以分布式方式来实现,但其收敛速度较慢。加速对偶下降(accelerated dual descent,ADD)算法通过近似牛顿步长的分布式计算,提高了对偶梯度下降算法的收敛速率。但由于通信网络的不确定性,在约束不确定时,该算法的收敛性难以保证。基于此,提出了一种随机形式的ADD算法来解决该网络优化问题。理论上证明了随机ADD算法在不确定性的均方误差有界时,能以较高概率收敛于最优值的一个误差邻域;当给出更严格的不确定性的约束条件时,算法则可以较高概率收敛于最优值。实验结果表明,随机ADD算法的收敛速率比随机梯度下降算法快2个数量级。
关键词
加速对偶下降算法
随机加速对偶下降(
add
)算法
网络优化
收敛速率
Keywords
accelerated
dual
descent(
add
)
algorithm
stochastic
add
network optimization
convergence rate
分类号
TN92 [电子电信—通信与信息系统]
TP393 [自动化与计算机技术—计算机应用技术]
原文传递
题名
作者
出处
发文年
被引量
操作
1
随机ADD算法的不确定网络优化研究
李冬梅
刘艳
《计算机应用研究》
CSCD
北大核心
2014
0
下载PDF
职称材料
2
基于随机加速对偶下降算法的分布式网络流量优化
刘琳
杨丽芳
《重庆邮电大学学报(自然科学版)》
CSCD
北大核心
2014
2
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部