期刊文献+

基于BERT的关系抽取方法研究

Research on Relation Extraction Method Based on BERT
下载PDF
导出
摘要 基于转换器的双向编码表征(Bidirectional Encoder Representation from Transformers,BERT)是由谷歌在2018发布的预训练模型,该模型在11项NLP任务中取得了最优的结果。基于此,笔者提出了基于BERT的关系抽取模型,将头节点和尾节点的先验知识融合到BERT模型中,并采用SemEval公开数据集进行实验。实验结果表明,此融合方法提高了原模型的召回率和F1值。 BERT is a pre-trained model released by Google in 2018. This model has achieved state of the art results in 11 NLP tasks. Based on this, This paper proposes a relationship extraction model based on BERT, which merges the prior knowledge of the head node and the tail node into the BERT model, and uses SemEval public data set for experiments. Experiments results show that this fusion method improves the recall rate and F1 value of the original model.
作者 张鋆灵 群诺 ZHANG Junling;QUN Nuo(College of Information Science and Technology,Tibet Uni vers让y,Lhasa Tibet 850000,China;Collaborative Innovation Center for Tibet Informatization by MOE and Tibet Autonomous Region,Lhasa Tibet 850000,China)
出处 《信息与电脑》 2022年第5期53-55,共3页 Information & Computer
基金 武汉理工大学-西藏大学“西藏经济社会发展与高原科学研究共建创新基金”专项项目(项目编号:lzt2021008)。
关键词 BERT 关系抽取 SemEval 信息抽取 BERT relation extraction SemEval information extraction
  • 相关文献

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部