期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
编码技术改进大规模分布式机器学习性能综述 被引量:5
1
作者 王艳 李念爽 +1 位作者 王希龄 钟凤艳 《计算机研究与发展》 EI CSCD 北大核心 2020年第3期542-561,共20页
由于分布式计算系统能为大数据分析提供大规模的计算能力,近年来受到了人们的广泛关注.在分布式计算系统中,存在某些计算节点由于各种因素的影响,计算速度会以某种随机的方式变慢,从而使运行在集群上的机器学习算法执行时间增加,这种节... 由于分布式计算系统能为大数据分析提供大规模的计算能力,近年来受到了人们的广泛关注.在分布式计算系统中,存在某些计算节点由于各种因素的影响,计算速度会以某种随机的方式变慢,从而使运行在集群上的机器学习算法执行时间增加,这种节点叫作掉队节点(straggler).介绍了基于编码技术解决这些问题和改进大规模机器学习集群性能的研究进展.首先介绍编码技术和大规模机器学习集群的相关背景;其次将相关研究按照应用场景分成了应用于矩阵乘法、梯度计算、数据洗牌和一些其他应用,并分别进行了介绍分析;最后总结讨论了相关编码技术存在的困难并对未来的研究趋势进行了展望. 展开更多
关键词 编码技术 机器学习 分布式计算 掉队节点容忍 性能优化
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部