期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于BERT-GRU-ATT模型的中文实体关系分类 被引量:10
1
作者 赵丹丹 黄德根 +2 位作者 孟佳娜 董宇 张攀 《计算机科学》 CSCD 北大核心 2022年第6期319-325,共7页
实体关系分类作为自然语言处理的基础任务,对知识图谱、智能问答、语义网构建等任务都起到了非常关键的作用。文中构建了BERT-GRU-ATT模型,以进行中文实体关系分类。为消除中文分词歧义对实体关系分类的影响,引入预训练模型BERT作为嵌入... 实体关系分类作为自然语言处理的基础任务,对知识图谱、智能问答、语义网构建等任务都起到了非常关键的作用。文中构建了BERT-GRU-ATT模型,以进行中文实体关系分类。为消除中文分词歧义对实体关系分类的影响,引入预训练模型BERT作为嵌入层,以较好地获得汉字的上下文信息;再通过双向门控循环单元捕获实体在句子中的长距离依赖,通过自注意力机制加强对关系分类贡献明显的字的权重,从而获得较好的实体关系分类结果。为了丰富中文实体关系分类语料,将SemEval2010_Task8英文实体关系评测语料翻译为中文^(1)),该模型在此翻译语料上取得了75.46%的F1值,说明了所提模型的有效性。此外,所提模型在SemEval2010-task8英文数据集上F1值达到了80.55%,证明该模型对英文语料具有一定的泛化能力。 展开更多
关键词 中文实体关系分类 预训练模型 门控循环单元 自注意力机制
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部