期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
大数据处理系统中面向GPU加速DNN推理的模型共享 被引量:5
1
作者 丁光耀 陈启航 +2 位作者 徐辰 钱卫宁 周傲英 《清华大学学报(自然科学版)》 EI CAS CSCD 北大核心 2022年第9期1435-1441,共7页
近年来,学术和工业界广泛利用大数据处理系统来处理视频分析等领域基于深度神经网络(deep neural networks, DNN)的推理负载。在这种场景下,因大数据系统中多个并行推理任务重复加载相同且只读的DNN模型,导致系统无法充分利用GPU资源,... 近年来,学术和工业界广泛利用大数据处理系统来处理视频分析等领域基于深度神经网络(deep neural networks, DNN)的推理负载。在这种场景下,因大数据系统中多个并行推理任务重复加载相同且只读的DNN模型,导致系统无法充分利用GPU资源,成为了推理性能提升的瓶颈。针对该问题,该文提出了一个面向单GPU卡的模型共享技术,在DNN推理任务之间共享同一份模型数据。在此基础上,为了使模型共享技术作用于分布式环境下的每一块GPU,该文还设计了支持多GPU卡模型共享的分配器。将上述优化技术集成到在GPU平台上运行的Spark中,实现了一个支持大规模推理负载的分布式原型系统。实验结果表明,针对基于YOLO-v3的交通视频处理负载,相对于未采用模型共享技术的系统,模型共享技术能够提升系统吞吐量达136%。 展开更多
关键词 大数据处理系统 dnn推理 GPU 显存 模型共享
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部