期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
自学习和回译的双向增强藏汉机器翻译方法
1
作者
桑杰端珠
才让加
《计算机仿真》
2024年第8期544-548,共5页
近年来在神经机器翻译框架内利用源端或目标端单语文本数据的工作机制引起了广泛关注和研究。在提出的众多方案中,回译被视为提高低资源神经机器翻译性能最有前景的方法之一。虽然该方法具有低廉的可操作性,但是其有效性在很大程度上依...
近年来在神经机器翻译框架内利用源端或目标端单语文本数据的工作机制引起了广泛关注和研究。在提出的众多方案中,回译被视为提高低资源神经机器翻译性能最有前景的方法之一。虽然该方法具有低廉的可操作性,但是其有效性在很大程度上依赖于利用现有双语平行数据训练的初始回译模型本身的性能。为改善藏汉对齐数据在规模上受限条件下的机器翻译性能,利用目标端单语数据,通过逐步接替式采用自学习和回译方法以改进反向和正向模型,使用20M句子规模的汉语单语数据,在藏汉神经机器翻译任务上,利用双向增强方法的正向和反向模型在测试集上的性能比只使用平行数据训练的Transformer模型分别增长了3.1和8.2个BLEU分值,证实了该方法的有效性。
展开更多
关键词
机器翻译
神经网络
藏汉
回译
自学习
下载PDF
职称材料
题名
自学习和回译的双向增强藏汉机器翻译方法
1
作者
桑杰端珠
才让加
机构
青海师范大学省部共建藏语信息智能处理与应用国家实验室
青海师范大学
计算机学院
青海师范大学
青海
省
藏文
信息
处理
工程技术研究中心
出处
《计算机仿真》
2024年第8期544-548,共5页
基金
青海省重点研发与转化计划项目(2022-GX-104)
青海省中央引导地方科技发展资金项目(2022ZY006)。
文摘
近年来在神经机器翻译框架内利用源端或目标端单语文本数据的工作机制引起了广泛关注和研究。在提出的众多方案中,回译被视为提高低资源神经机器翻译性能最有前景的方法之一。虽然该方法具有低廉的可操作性,但是其有效性在很大程度上依赖于利用现有双语平行数据训练的初始回译模型本身的性能。为改善藏汉对齐数据在规模上受限条件下的机器翻译性能,利用目标端单语数据,通过逐步接替式采用自学习和回译方法以改进反向和正向模型,使用20M句子规模的汉语单语数据,在藏汉神经机器翻译任务上,利用双向增强方法的正向和反向模型在测试集上的性能比只使用平行数据训练的Transformer模型分别增长了3.1和8.2个BLEU分值,证实了该方法的有效性。
关键词
机器翻译
神经网络
藏汉
回译
自学习
Keywords
Machine translation
Neural networks
Tibetan-chinese
Back-translation
Self-learning
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
自学习和回译的双向增强藏汉机器翻译方法
桑杰端珠
才让加
《计算机仿真》
2024
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部