期刊文献+

融合多层注意力机制与双向LSTM的语义关系抽取 被引量:3

Multi-level Attention-based Bidirectional Long Short-Term Memory Networks for Relation Extract
下载PDF
导出
摘要 关系抽取是构建如知识图谱等上层自然语言处理应用的基础。针对目前大多数关系抽取模型中忽略部分文本局部特征的问题,设计一种结合实体位置特征与多层注意力机制的双向LSTM网络结构。首先根据位置特征扩充字向量特征,并将文本信息向量化,然后将文本向量化信息输入双向LSTM模型,通过多层注意力机制,提高LSTM模型输入与输出之间的相关性,最后通过分类器输出关系获取结果。使用人工标注的百科类语料进行语义关系获取实验,结果表明,改进方法优于传统基于模式匹配的关系获取方法。 Relational extraction is the basis for constructing upper natural language processing applications such as knowledge graph.Because most of state-of-the-art systems ignore the importance of the local feature,in this paper,we design a bidirectional LSTM network structure which combines position eigenvector and multi-level attention mechanism.Firstly,the model embedded the text information by extending word vector feature which was based on positional features.Secondly,the information was introduced into the bidirectional LSTM model,and multi-level attention was used to improve the probability between the input and output of LSTM model.Finally,it obtained the result by classifier.The proposed method in this paper achieves an better result than the tradition method.
作者 周文烨 刘亮亮 张再跃 ZHOU Wen-ye;LIU Liang-liang;ZHANG Zai-yue(College of Computer,Jiangsu University of Science and Technology,Zhenjiang 212003,China;School of Statistics and Information,Shanghai University of International Business and Economics,Shanghai 201620,China)
出处 《软件导刊》 2019年第7期10-14,18,共6页 Software Guide
基金 国家自然科学基金项目(61371114,611170165) 江苏高校高技术船舶协同创新中心/江苏科技大学海洋装备研究院项目(1174871701-9)
关键词 位置特征 多层注意力机制 双向LSTM 关系抽取 position feature multi-level attention mechanism bidirectional LSTM relation extraction
  • 相关文献

参考文献9

二级参考文献132

共引文献243

同被引文献19

引证文献3

二级引证文献11

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部