期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于注意力卷积的神经机器翻译 被引量:6
1
作者 汪琪 段湘煜 《计算机科学》 CSCD 北大核心 2018年第11期226-230,共5页
现有神经机器翻译模型普遍采用的注意力机制是基于单词级别的,文中通过在注意力机制上执行多层卷积,从而将注意力机制从基于单词的级别提高到基于短语的级别。经过卷积操作后的注意力信息将愈加明显地体现出短语结构性,并被用于生成新... 现有神经机器翻译模型普遍采用的注意力机制是基于单词级别的,文中通过在注意力机制上执行多层卷积,从而将注意力机制从基于单词的级别提高到基于短语的级别。经过卷积操作后的注意力信息将愈加明显地体现出短语结构性,并被用于生成新的上下文向量,从而将新生成的上下文向量融入到神经机器翻译框架中。在大规模的中-英测试数据集上的实验结果表明,基于注意力卷积的神经机翻译模型能够很好地捕获语句中的短语结构信息,增强翻译词前后的上下文依赖关系,优化上下文向量,提高机器翻译的性能。 展开更多
关键词 神经机器翻译 多层卷积网络结构 注意力机制 短语级别
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部