期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于改进字节对编码的汉藏机器翻译研究
被引量:
13
1
作者
头旦才让
仁青东主
+2 位作者
尼玛扎西
于永斌
邓权芯
《电子科技大学学报》
EI
CAS
CSCD
北大核心
2021年第2期249-255,293,共8页
该文通过改进字节对编码算法,提出了带字数阈值的藏文字节对编码算法,优化了基于注意力机制的汉藏神经机器翻译模型。收集整理了100万汉藏句对和20万汉藏人名地名词典,训练了汉藏神经机器翻译模型。通过测试和验证,模型的BLEU值达到36.8...
该文通过改进字节对编码算法,提出了带字数阈值的藏文字节对编码算法,优化了基于注意力机制的汉藏神经机器翻译模型。收集整理了100万汉藏句对和20万汉藏人名地名词典,训练了汉藏神经机器翻译模型。通过测试和验证,模型的BLEU值达到36.84。该模型的命名实体翻译效果优于已商用汉藏在线翻译系统。同时,该文的神经机器翻译模型已部署于汉藏机器翻译网站,实现了汉藏神经机器翻译系统的应用推广。
展开更多
关键词
注意力机制
字节对编码
汉藏神经机器翻译
命名实体识别
下载PDF
职称材料
题名
基于改进字节对编码的汉藏机器翻译研究
被引量:
13
1
作者
头旦才让
仁青东主
尼玛扎西
于永斌
邓权芯
机构
青海师范大学藏文信息处理教育部重点实验室
西藏大学信息科学技术学院
电子科技大学信息与软件工程学院
出处
《电子科技大学学报》
EI
CAS
CSCD
北大核心
2021年第2期249-255,293,共8页
基金
国家自然科学基金(61262051)
国家社会科学基金(19XYY021)
+1 种基金
国家重点研发计划重点专项(2017YFB1402200)
青海省科技计划(2017-GX-146,2017-ZJ-767)。
文摘
该文通过改进字节对编码算法,提出了带字数阈值的藏文字节对编码算法,优化了基于注意力机制的汉藏神经机器翻译模型。收集整理了100万汉藏句对和20万汉藏人名地名词典,训练了汉藏神经机器翻译模型。通过测试和验证,模型的BLEU值达到36.84。该模型的命名实体翻译效果优于已商用汉藏在线翻译系统。同时,该文的神经机器翻译模型已部署于汉藏机器翻译网站,实现了汉藏神经机器翻译系统的应用推广。
关键词
注意力机制
字节对编码
汉藏神经机器翻译
命名实体识别
Keywords
attention mechanism
byte pair Encoding
Chinese-Tibetan neural machine translation
named entity recognition
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于改进字节对编码的汉藏机器翻译研究
头旦才让
仁青东主
尼玛扎西
于永斌
邓权芯
《电子科技大学学报》
EI
CAS
CSCD
北大核心
2021
13
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部