期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
一种端到端的事件共指消解方法
1
作者 刘浏 蒋国权 +3 位作者 环志刚 刘姗姗 刘茗 丁鲲 《工程科学与技术》 EI CAS CSCD 北大核心 2024年第1期82-88,共7页
事件共指消解任务主要是判断不同事件提及是否指向同一件事件。事件共指消解不仅能有效缓解事件抽取任务中存在的信息冗余问题,而且为事件内容补全提供了有效途径。尽管许多学者利用深度学习方法对事件共指消解进行了大量研究。但是大... 事件共指消解任务主要是判断不同事件提及是否指向同一件事件。事件共指消解不仅能有效缓解事件抽取任务中存在的信息冗余问题,而且为事件内容补全提供了有效途径。尽管许多学者利用深度学习方法对事件共指消解进行了大量研究。但是大部分事件共指消解模型中仍然存在显式信息表示不足、论元噪声引入以及共指事件分布稀疏等问题。针对上述问题,提出了一种利用显式论元信息和重构事件链的端到端事件共指消解方法。首先,使用名为OneIE事件抽取模型提取事件的触发词和论元以获取事件的结构化信息;随后,使用Transformer编码器对事件提及上下文进行表示,并将置信分数引入论元信息编码以缓解其可能带来的误差传递;同时,采用门控机制对论元在触发词的水平和垂直方向上的信息进行分解,并根据论元和触发词的相关系数融合两个方向的信息,过滤论元中的噪声;然后,使用前馈网络计算事件提及对共指得分;最后,通过重构事件链验证事件提及的合法性以纠正由共指事件稀疏性带来的模型训练结果偏差。为了验证方法的有效性,本文基于数据集ACE2005进行实验。结果表明,本文模型在端到端事件共指消解任务上具有一定的先进性,其中CoNLL和AVG指标平均高出基线模型5.67%和6.24%。 展开更多
关键词 事件共指消解 自然语言处理 预训练语言模型
下载PDF
门控机制融合多种特征的中文事件共指消解 被引量:1
2
作者 环志刚 蒋国权 +2 位作者 张玉健 刘浏 刘姗姗 《计算机科学》 CSCD 北大核心 2023年第3期291-297,共7页
事件共指消解是很多自然语言处理任务的基础,旨在识别文本中指代相同真实事件的事件提及。由于中文语法相比英文更复杂,捕获英文文本特征的方法在中文事件共指消解中效果并不明显。为解决文档内中文事件共指,提出了一种门控机制神经网络... 事件共指消解是很多自然语言处理任务的基础,旨在识别文本中指代相同真实事件的事件提及。由于中文语法相比英文更复杂,捕获英文文本特征的方法在中文事件共指消解中效果并不明显。为解决文档内中文事件共指,提出了一种门控机制神经网络(Gated Mechanism Neural Network, GMNN)。针对中文具有主语省略、结构松散等特点,引入事件基本属性作为符号特征。在此基础上,提出了一种新的门控去噪机制,对符号特征向量进行微调,过滤符号特征中的噪声,提取在特定上下文语境中的有用信息,进而提高共指事件的识别率。在ACE2005中文数据集上进行了实验,结果表明,GMNN的AVG分数提升了2.66,有效地提高了中文事件共指消解的效果。 展开更多
关键词 中文事件共指消解 门控机制 神经网络 预训练语言模型 符号特征
下载PDF
基于核心句的端到端事件共指消解
3
作者 环志刚 蒋国权 +2 位作者 张玉健 刘浏 丁鲲 《计算机科学》 CSCD 北大核心 2023年第11期185-191,共7页
大多数先前的事件共指消解模型都属于成对相似度模型,通过编码两个事件提及的表示并计算相似度来判断是否共指。但是,当两个事件提及在文档内出现的位置接近时,编码其中一个事件提及的上下文表示会引入另一事件的信息,从而降低模型的性... 大多数先前的事件共指消解模型都属于成对相似度模型,通过编码两个事件提及的表示并计算相似度来判断是否共指。但是,当两个事件提及在文档内出现的位置接近时,编码其中一个事件提及的上下文表示会引入另一事件的信息,从而降低模型的性能。针对此问题,提出了一种基于核心句的端到端事件共指消解模型(End-to-end Event Coreference Resolution Based on Core Sentence,ECR-CS),该模型自动抽取事件信息并按照预先设置好的模板为每个事件提及构造核心句,利用核心句的表示代替事件提及的表示。由于核心句中只包含单个事件的信息,因此所提模型可以在编码事件表示时消除其他事件信息的干扰。此外,受到事件信息抽取工具的性能限制,构造的核心句可能会丢失事件的部分重要信息,提出利用事件在文档中的上下文表示来进行出弥补。所提模型引入了一种门控机制,将上下文嵌入向量分解为分别与核心句嵌入向量平行和正交的两个分量,平行分量可以认为是与核心句信息维度相同的信息,正交分量则是核心句中不包含的新信息。通过上下文信息和核心句信息的相关度,控制正交分量中被用来补充核心句中缺失的重要信息的新信息的量。在ACE2005数据集上进行实验,结果表明,相比最先进的模型,ECR-CS的CoNLL和AVG分数分别提升了1.76和1.04。 展开更多
关键词 事件共指消解 门控机制 神经网络 预训练语言模型 事件核心句
下载PDF
基于事件共指消解的多源情报融合方法
4
作者 环志刚 蒋国权 +2 位作者 周泽云 陈涛 严浩 《计算机工程与设计》 北大核心 2023年第10期3124-3131,共8页
情报数据存在多源异构、关联缺失、重复冗余等问题,有限的数据处理能力已经无法满足不断增长的数据获取能力。事件共指消解任务旨在将互为共指关系的事件识别为同一事件并进行融合处理。对融合多源情报进行研究,提出一种端到端的事件共... 情报数据存在多源异构、关联缺失、重复冗余等问题,有限的数据处理能力已经无法满足不断增长的数据获取能力。事件共指消解任务旨在将互为共指关系的事件识别为同一事件并进行融合处理。对融合多源情报进行研究,提出一种端到端的事件共指消解方法。从情报文本中自动抽取情报事件;编码整个情报文档得到待消解事件的表示,计算每对事件提及的共指得分,以此构建文档内事件共指链;通过算法利用文档内事件共指链融合多源情报文档中的共指事件。实验结果表明,提出方法对消除冗余信息、简化情报文本、融合情报信息具有明显增益。 展开更多
关键词 多源情报 信息融合 端到端 事件共指消解 文档内 跨文档 神经网络
下载PDF
基于触发词语义选择的Twitter事件共指消解研究 被引量:2
5
作者 魏萍 巢文涵 +1 位作者 罗准辰 李舟军 《计算机科学》 CSCD 北大核心 2018年第12期130-136,147,共8页
随着社交媒体的发展与普及,如何识别短文本中事件描述的共指关系已成为一个亟待解决的问题。在传统的事件共指消解研究中,需要从NLP工具和知识库中获得丰富的语义特征,这种方式不仅限制了领域的扩展性,而且还导致了误差传播。为了打破... 随着社交媒体的发展与普及,如何识别短文本中事件描述的共指关系已成为一个亟待解决的问题。在传统的事件共指消解研究中,需要从NLP工具和知识库中获得丰富的语义特征,这种方式不仅限制了领域的扩展性,而且还导致了误差传播。为了打破上述局限,提出了一种新颖的基于事件触发词来选择性表达句子语义的方法,以判断短文本中事件的共指关系。首先,利用双向长短记忆模型(Bi-LSTM)提取短文本的句子级语义特征和事件描述级语义特征;其次,通过在句子级特征上应用一个基于事件触发词的选择门来选择性表达句子级语义,以产生潜在语义特征;然后,设计了触发词重叠词数和时间间隔两个辅助特征;最后,通过融合以上特征形成一个分类器来预测共指关系。为评估上述方法,基于Twitter数据标注了一个新的数据集EventCoreOnTweets(ECT)。实验结果表明,与两个基准模型相比,提出的选择性表达模型显著提升了短文本共指消解的性能。 展开更多
关键词 事件共指消解 短文本 双向长短记忆模型 神经网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部