期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于神经网络语言模型的动态层序Softmax训练算法 被引量:4
1
作者 杨鹤标 胡惊涛 刘芳 《江苏大学学报(自然科学版)》 EI CAS 北大核心 2020年第1期67-72,80,共7页
针对词向量训练过程中层序Softmax算法无法进行增量训练及海量数据训练低效的问题,提出了动态层序Softmax算法.通过对数据样本的增量加载,采用结点置换方法动态构建编码树,实现对样本的增量训练.为避免损失函数因样本量较少而呈现震荡... 针对词向量训练过程中层序Softmax算法无法进行增量训练及海量数据训练低效的问题,提出了动态层序Softmax算法.通过对数据样本的增量加载,采用结点置换方法动态构建编码树,实现对样本的增量训练.为避免损失函数因样本量较少而呈现震荡式下降,利用梯度的一阶矩估计与二阶矩估计动态调整参数更新方向与学习率,通过梯度迭代缩小权值变化范围和收敛训练误差,提高词向量的训练效率.以维基百科中文语料作为数据进行了试验,完成了训练效率和质量的分析.结果表明:相较于现有方法动态层序Softmax算法显著提高了训练效率,当增量样本大小为10 kB^1 MB时,训练增速有近30倍的提升,有效地缩短训练周期. 展开更多
关键词 词向量 层序softmax 增量训练 矩估计 梯度迭代
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部