期刊文献+

基于BERT_Att的机器阅读理解模型

MACHINE READING COMPREHENSION MODEL BASED ON BERT_ATT
下载PDF
导出
摘要 针对当前机器阅读理解模型中文本与问题的语义融合不够充分、缺乏考虑全局的语义信息的问题,提出一种基于BERT、注意力机制与自注意力机制的机器阅读理解模型BERT_Att。该模型采用BERT将文本和问题分别映射进特征空间,通过Bi-LSTM、注意力机制与自注意力机制将文本与问题进行充分的语义融合,通过Softmax计算答案的概率分布。在公共数据集DuReader上的实验结果表明,该模型的BLEU-4值与ROUGE-L值较现有的模型均有进一步的提升,并且分析了影响模型表现的因素,验证了该模型设计的有效性。 Aimed at the problem that the semantic fusion of the passages and the problems in the current machine reading comprehension model was not sufficient and the global semantic information was not considered,a machine reading comprehension model BERT_Att based on BERT,attention mechanism and self-attention mechanism is proposed.This model used BERT to map passages and problems into feature space.Through Bi-LSTM,attention mechanism and self-attention mechanism,the semantic fusion of passages and problems was fully carried out.Softmax was used to calculate the probability distribution of the answers.Experimental results on the public dataset DuReader show that BLEU-4 value and ROUGE-L value of this model are further improved compared with the current models.By analyzing the factors that affect the performance of this model,the effectiveness of this model is verified.
作者 王红 邸帅 吴燕婷 Wang Hong;Di Shuai;Wu Yanting(School of Computer Science and Technology,Civil Aviation University of China,Tianjin 300300,China)
出处 《计算机应用与软件》 北大核心 2023年第3期223-228,共6页 Computer Applications and Software
基金 国家自然科学基金民航联合基金项目(U1633110) 空中交通管理系统与技术国家重点实验室开放基金资助项目(SKLATM201902)。
关键词 机器阅读理解 BERT 自注意力机制 Bi-LSTM 语义融合 Machine reading comprehension BERT Self-attention mechanism Bi-LSTM Semantic fusion
  • 相关文献

参考文献1

共引文献8

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部