摘要
并行潜在狄利克雷分配(LDA)主题模型在计算与通信两方面的时间消耗较大,导致训练模型的时间过长,因而无法被广泛应用。提出朴素并行LDA算法,针对计算和通信分别提出改进方法。一方面通过加入单词影响因子以及设置阈值的方法来降低文本训练的粒度,另一方面通过降低通信频率来减少通信时间。实验结果表明,优化后的并行LDA在保证精度损失为1%的前提下,将训练速度提高了36%,有效提高了并行的加速比。
The parallel latent Dirichlet allocation (LDA) costs a lot of time in computation and communication, which brings about long time to train a LDA model and then it can't be widely applied. This paper proposed naive parallel LDA algorithm, presenting two methods to solve this problerr. One is to add impact factor of each word and set threshold to reduce the amount of corpus, the other is to reduce the communication frequency to decrease the communication time. Experimental results show that the optimized distributed LDA can accelerate the total training time by 36% and improve the speedup ratio, while the loss of accuracy is below 1 %.
出处
《计算机科学》
CSCD
北大核心
2015年第6期243-246,共4页
Computer Science
基金
国家自然科学基金(61003154
61373092
61033013
61272449
61202029)
江苏省教育厅重大项目(12KJA520004)
苏州大学创新团队(SDT2012B02)
广东省重点实验室开放课题(SZU-GDPHPCL-2012-09)资助
关键词
潜在狄利克雷分配
并行
加速优化
Latent Dirichlet allocation
Parallel
Speedup optimization