期刊文献+
共找到163篇文章
< 1 2 9 >
每页显示 20 50 100
A document-level model for tweet event detection
1
作者 Qin Yanxia Zhang Yue +1 位作者 Zhang Min Zheng Dequan 《High Technology Letters》 EI CAS 2018年第2期208-218,共11页
Social media like Twitter who serves as a novel news medium and has become increasingly popular since its establishment. Large scale first-hand user-generated tweets motivate automatic event detection on Twitter. Prev... Social media like Twitter who serves as a novel news medium and has become increasingly popular since its establishment. Large scale first-hand user-generated tweets motivate automatic event detection on Twitter. Previous unsupervised approaches detected events by clustering words. These methods detect events using burstiness,which measures surging frequencies of words at certain time windows. However,event clusters represented by a set of individual words are difficult to understand. This issue is addressed by building a document-level event detection model that directly calculates the burstiness of tweets,leveraging distributed word representations for modeling semantic information,thereby avoiding sparsity. Results show that the document-level model not only offers event summaries that are directly human-readable,but also gives significantly improved accuracies compared to previous methods on unsupervised tweet event detection,which are based on words/segments. 展开更多
关键词 social media event detection TWITTER bursty UNSUPERVISED document-level
下载PDF
Storyline Extraction of Document-Level Events Using Large Language Models
2
作者 Ziyang Hu Yaxiong Li 《Journal of Computer and Communications》 2024年第11期162-172,共11页
This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prom... This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prompt + one-shot learning proposed in this article works well. Meanwhile, our research findings indicate that although timeline-based storyline extraction has shown promising prospects in the practical applications of LLMs, it is still a complex natural language processing task that requires further research. 展开更多
关键词 document-level Storyline Extraction Timeline Large Language Models Topological Structure of Storyline Prompt Learning
下载PDF
Denoising Graph Inference Network for Document-Level Relation Extraction 被引量:2
3
作者 Hailin Wang Ke Qin +1 位作者 Guiduo Duan Guangchun Luo 《Big Data Mining and Analytics》 EI CSCD 2023年第2期248-262,共15页
Relation Extraction(RE)is to obtain a predefined relation type of two entities mentioned in a piece of text,e.g.,a sentence-level or a document-level text.Most existing studies suffer from the noise in the text,and ne... Relation Extraction(RE)is to obtain a predefined relation type of two entities mentioned in a piece of text,e.g.,a sentence-level or a document-level text.Most existing studies suffer from the noise in the text,and necessary pruning is of great importance.The conventional sentence-level RE task addresses this issue by a denoising method using the shortest dependency path to build a long-range semantic dependency between entity pairs.However,this kind of denoising method is scarce in document-level RE.In this work,we explicitly model a denoised document-level graph based on linguistic knowledge to capture various long-range semantic dependencies among entities.We first formalize a Syntactic Dependency Tree forest(SDT-forest)by introducing the syntax and discourse dependency relation.Then,the Steiner tree algorithm extracts a mention-level denoised graph,Steiner Graph(SG),removing linguistically irrelevant words from the SDT-forest.We then devise a slide residual attention to highlight word-level evidence on text and SG.Finally,the classification is established on the SG to infer the relations of entity pairs.We conduct extensive experiments on three public datasets.The results evidence that our method is beneficial to establish long-range semantic dependency and can improve the classification performance with longer texts. 展开更多
关键词 Relation Eextraction(RE) document-level DENOISING linguistic knowledge attention mechanism
原文传递
Document-Level Neural Machine Translation with Hierarchical Modeling of Global Context
4
作者 Xin Tan Long-Yin Zhang Guo-Dong Zhou 《Journal of Computer Science & Technology》 SCIE EI CSCD 2022年第2期295-308,共14页
Document-level machine translation(MT)remains challenging due to its difficulty in efficiently using documentlevel global context for translation.In this paper,we propose a hierarchical model to learn the global conte... Document-level machine translation(MT)remains challenging due to its difficulty in efficiently using documentlevel global context for translation.In this paper,we propose a hierarchical model to learn the global context for documentlevel neural machine translation(NMT).This is done through a sentence encoder to capture intra-sentence dependencies and a document encoder to model document-level inter-sentence consistency and coherence.With this hierarchical architecture,we feedback the extracted document-level global context to each word in a top-down fashion to distinguish different translations of a word according to its specific surrounding context.Notably,we explore the effect of three popular attention functions during the information backward-distribution phase to take a deep look into the global context information distribution of our model.In addition,since large-scale in-domain document-level parallel corpora are usually unavailable,we use a two-step training strategy to take advantage of a large-scale corpus with out-of-domain parallel sentence pairs and a small-scale corpus with in-domain parallel document pairs to achieve the domain adaptability.Experimental results of our model on Chinese-English and English-German corpora significantly improve the Transformer baseline by 4.5 BLEU points on average which demonstrates the effectiveness of our proposed hierarchical model in document-level NMT. 展开更多
关键词 neural machine translation document-level translation global context hierarchical model
原文传递
基于注意力机制语义增强的文档级关系抽取
5
作者 柳先辉 吴文达 +1 位作者 赵卫东 侯文龙 《同济大学学报(自然科学版)》 EI CAS CSCD 北大核心 2024年第5期822-828,共7页
文档级关系抽取旨在从文档中抽取出多个实体对之间的关系,具有较高的复杂性。针对文档级关系抽取中的多实体、关系相关性、关系分布不平衡等问题,提出了一种基于注意力机制(Attention)语义增强的文档级关系抽取方法,能够实现实体对之间... 文档级关系抽取旨在从文档中抽取出多个实体对之间的关系,具有较高的复杂性。针对文档级关系抽取中的多实体、关系相关性、关系分布不平衡等问题,提出了一种基于注意力机制(Attention)语义增强的文档级关系抽取方法,能够实现实体对之间关系的推理。具体来说,首先在数据编码模块改进编码策略,引入更多实体信息,通过编码网络捕获文档的语义特征,获得实体对矩阵;然后,设计了一个基于Attention门控机制的U-Net网络,对实体对矩阵进行局部信息捕获和全局信息汇总,实现语义增强;最后,使用自适应焦点损失函数缓解关系分布不平衡的问题。在4个公开的文档级关系抽取数据集(DocRED、CDR、GDA和DWIE)上评估了Att-DocuNet模型并取得了良好的实验结果。 展开更多
关键词 文档级关系抽取 注意力机制 语义增强 焦点损失
下载PDF
融合实体和上下文信息的篇章关系抽取研究
6
作者 黄河燕 袁长森 冯冲 《自动化学报》 EI CAS CSCD 北大核心 2024年第10期1953-1962,共10页
篇章关系抽取旨在识别篇章中实体对之间的关系.相较于传统的句子级别关系抽取,篇章级别关系抽取任务更加贴近实际应用,但是它对实体对的跨句子推理和上下文信息感知等问题提出了新的挑战.本文提出融合实体和上下文信息(Fuse entity and ... 篇章关系抽取旨在识别篇章中实体对之间的关系.相较于传统的句子级别关系抽取,篇章级别关系抽取任务更加贴近实际应用,但是它对实体对的跨句子推理和上下文信息感知等问题提出了新的挑战.本文提出融合实体和上下文信息(Fuse entity and context information,FECI)的篇章关系抽取方法,它包含两个模块,分别是实体信息抽取模块和上下文信息抽取模块.实体信息抽取模块从两个实体中自动地抽取出能够表示实体对关系的特征.上下文信息抽取模块根据实体对的提及位置信息,从篇章中抽取不同的上下文关系特征.本文在三个篇章级别的关系抽取数据集上进行实验,效果得到显著提升. 展开更多
关键词 篇章关系抽取 实体信息 上下文信息 提及位置信息 跨句子推理
下载PDF
基于双粒度图的文档级关系抽取
7
作者 廖涛 张国畅 张顺香 《计算机工程》 CAS CSCD 北大核心 2024年第10期164-173,共10页
文档级关系抽取是指在非结构性文本中抽取实体对之间的关系。针对当前文档级关系抽取方法未能充分利用文档语义信息且难以处理文档的噪声干扰问题,提出一种基于双粒度文档图的关系抽取模型,采用一种新型的构图思路以及降噪方法,分别在... 文档级关系抽取是指在非结构性文本中抽取实体对之间的关系。针对当前文档级关系抽取方法未能充分利用文档语义信息且难以处理文档的噪声干扰问题,提出一种基于双粒度文档图的关系抽取模型,采用一种新型的构图思路以及降噪方法,分别在句间和句内两个层面进行设计。首先,在句间层面使用修辞语篇关系实体提及关系构建修辞语篇关系图RST-graph,采用异步降噪方式生成粗粒度文档图(CGD-graph),缓解了因实体对的句间关系路径长于句内关系路径造成的结构性误剪枝问题。然后,在句内层面采用依存句法关系对文档中的句子进行解析,构造依存句法树(SDT),增强句内语义信息。最后,将SDT和CGD-graph中存在的公共锚点相连接,构造细粒度文档图(FGD-graph)。实验结果表明,与去噪图推理(DGI)模型相比,该模型的lgn F1值和F1值分别提升了0.40和0.51个百分点,并且在实体对的多标签关系上随着标签数量的增多抽取效果提升较为显著。 展开更多
关键词 文档级 关系抽取 双粒度文档图 异步降噪 修辞语篇关系 依存句法关系
下载PDF
基于多粒度阅读器和图注意力网络的文档级事件抽取
8
作者 薛颂东 李永豪 赵红燕 《计算机应用研究》 CSCD 北大核心 2024年第8期2329-2335,共7页
文档级事件抽取面临论元分散和多事件两大挑战,已有工作大多采用逐句抽取候选论元的方式,难以建模跨句的上下文信息。为此,提出了一种基于多粒度阅读器和图注意网络的文档级事件抽取模型,采用多粒度阅读器实现多层次语义编码,通过图注... 文档级事件抽取面临论元分散和多事件两大挑战,已有工作大多采用逐句抽取候选论元的方式,难以建模跨句的上下文信息。为此,提出了一种基于多粒度阅读器和图注意网络的文档级事件抽取模型,采用多粒度阅读器实现多层次语义编码,通过图注意力网络捕获实体对之间的局部和全局关系,构建基于实体对相似度的剪枝完全图作为伪触发器,全面捕捉文档中的事件和论元。在公共数据集ChFinAnn和DuEE-Fin上进行了实验,结果表明提出的方法改善了论元分散问题,提升了模型事件抽取性能。 展开更多
关键词 多粒度阅读器 图注意力网络 文档级事件抽取
下载PDF
基于FinBERT和Bi-GRU的篇章级事件检测模型
9
作者 廖涛 王凯 张顺香 《阜阳师范大学学报(自然科学版)》 2024年第3期1-6,共6页
现有的篇章级事件检测方法一般分为候选实体抽取和事件检测两个子任务,候选实体抽取任务的精度影响着事件检测任务的结果。针对现有方法候选实体抽取精度不足的问题,提出了基于FinBERT和Bi-GRU的篇章级事件检测模型。首先,采用FinBERT... 现有的篇章级事件检测方法一般分为候选实体抽取和事件检测两个子任务,候选实体抽取任务的精度影响着事件检测任务的结果。针对现有方法候选实体抽取精度不足的问题,提出了基于FinBERT和Bi-GRU的篇章级事件检测模型。首先,采用FinBERT预训练模型提升词嵌入向量对金融语义的表示能力,从而增强模型对金融语义的感知。其次,将上一层获取到的语义表示输入Bi-GRU模型和多头注意力机制中捕获全局和局部特征,通过CRF进行解码并标注出候选实体和实体类型。最后,根据抽取的候选实体信息判断篇章中存在的预定义事件。实验结果表明,本文方法提升了候选实体抽取任务的精度,取得了较好的篇章级事件检测结果。 展开更多
关键词 篇章级事件检测 候选实体 FinBERT Bi-GRU
下载PDF
试析医养结合规范性文件的法理依据、效力及合法性要求
10
作者 李西霞 《山西师大学报(社会科学版)》 2024年第2期106-112,共7页
2013年国家提出医养结合新型养老模式,是应对人口老龄化的创新举措。中央和省级政府及其部门陆续出台一系列规范性文件,促进各地探索医养结合体制机制试点工作,并取得一定成效。然而,由于这些规范性文件效力位阶低,其创设的相关义务超... 2013年国家提出医养结合新型养老模式,是应对人口老龄化的创新举措。中央和省级政府及其部门陆续出台一系列规范性文件,促进各地探索医养结合体制机制试点工作,并取得一定成效。然而,由于这些规范性文件效力位阶低,其创设的相关义务超越所涉上位法规定,致使医养结合面临制度性障碍。对此,应加大力度推进医养结合法治建设,为医养结合发展提供法治保障。这也是我国全面依法治国战略对医养结合依法推进的必然要求。 展开更多
关键词 医养结合 规范性文件 效力 合法性 法治保障
下载PDF
基于BERT和图注意力网络的篇章级事件论元识别
11
作者 王凯 廖涛 《现代计算机》 2024年第6期14-19,64,共7页
事件论元识别是事件抽取的子任务之一,其目的在于识别文本中与事件相关的论元及论元对应的论元角色。研究表明,句子的依存句法关系有助于事件论元任务识别,然而,在构造篇章的依存句法关系时容易引入不相关的论元产生噪声问题,现有方法... 事件论元识别是事件抽取的子任务之一,其目的在于识别文本中与事件相关的论元及论元对应的论元角色。研究表明,句子的依存句法关系有助于事件论元任务识别,然而,在构造篇章的依存句法关系时容易引入不相关的论元产生噪声问题,现有方法对噪声问题处理不佳。针对该问题,提出了一个基于BERT和图注意力网络的篇章级事件论元识别模型。该模型从两个角度去解决噪声问题,一方面,通过获取充分的篇章语义特征作为辅助,去构建更有效的篇章依存句法特征;另一方面,采用图注意力网络对不同的论元节点分配不同的权重,从而去除掉无效的论元。在RAMS语料库上的实验结果表明,该方法有效解决了篇章依存句法关系中存在的噪声问题,取得了较好的篇章级事件论元识别结果。 展开更多
关键词 篇章级事件论元识别 依存句法关系 BERT 图注意力网络
下载PDF
融合目标端上下文的篇章神经机器翻译
12
作者 贾爱鑫 李军辉 +1 位作者 贡正仙 张民 《中文信息学报》 CSCD 北大核心 2024年第4期59-68,共10页
神经机器翻译在句子级翻译任务上取得了令人瞩目的效果,但是句子级翻译的译文会存在一致性、指代等篇章问题,篇章翻译通过利用上下文信息来解决上述问题。不同于以往使用源端上下文建模的方法,该文提出了融合目标端上下文信息的篇章神... 神经机器翻译在句子级翻译任务上取得了令人瞩目的效果,但是句子级翻译的译文会存在一致性、指代等篇章问题,篇章翻译通过利用上下文信息来解决上述问题。不同于以往使用源端上下文建模的方法,该文提出了融合目标端上下文信息的篇章神经机器翻译。具体地,该文借助推敲网络的思想,对篇章源端进行二次翻译,第一次基于句子级翻译,第二次翻译参考了全篇的第一次翻译结果。基于LDC中英篇章数据集和WMT英德篇章数据集的实验结果表明,在引入较少的参数的条件下,该文方法能显著提高翻译性能。同时,随着第一次翻译(即句子级译文)质量的提升,所提方法也更有效。 展开更多
关键词 神经机器翻译 推敲网络 篇章翻译
下载PDF
融合指代消解的神经机器翻译研究
13
作者 冯勤 贡正仙 +1 位作者 李军辉 周国栋 《中文信息学报》 CSCD 北大核心 2024年第6期67-76,共10页
篇章中的同一实体经常会呈现出不同的表述,形成一系列复杂的指代关系,这给篇章翻译带来了很大的挑战。该文重点探索指代消解和篇章神经机器翻译的融合方案,首先为指代链设计相应的指代表征;其次使用软约束和硬约束两种方法在翻译系统中... 篇章中的同一实体经常会呈现出不同的表述,形成一系列复杂的指代关系,这给篇章翻译带来了很大的挑战。该文重点探索指代消解和篇章神经机器翻译的融合方案,首先为指代链设计相应的指代表征;其次使用软约束和硬约束两种方法在翻译系统中实现指代信息的融合。该文建议的方法分别在英语-德语和中文-英语语言对上进行了实验,实验结果表明,相比于同期最好的句子级翻译系统,该方法能使翻译性能获得明显提升。此外,在英语-德语的代词翻译质量的专门评估中,准确率也有显著提升。 展开更多
关键词 指代表征 神经机器翻译 篇章级机器翻译
下载PDF
面向文本实体关系抽取研究综述
14
作者 任安琪 柳林 +1 位作者 王海龙 刘静 《计算机科学与探索》 CSCD 北大核心 2024年第11期2848-2871,共24页
信息抽取是知识图谱构建的基础,关系抽取作为信息抽取的关键流程和核心步骤,旨在从文本数据中定位实体并识别实体间的语义联系。因此提高关系抽取的效率可以有效提升信息抽取的质量,进而影响到知识图谱的构建以及后续的下游任务。关系... 信息抽取是知识图谱构建的基础,关系抽取作为信息抽取的关键流程和核心步骤,旨在从文本数据中定位实体并识别实体间的语义联系。因此提高关系抽取的效率可以有效提升信息抽取的质量,进而影响到知识图谱的构建以及后续的下游任务。关系抽取按照抽取文本长度可以分为句子级关系抽取和文档级关系抽取,两种级别的抽取方法在不同应用场景下各有优缺点。句子级关系抽取适用于较小规模数据集的应用场景,而文档级关系抽取适用于新闻事件分析、长篇报告或文章的关系挖掘等场景。不同于已有的关系抽取,介绍了关系抽取的基本概念以及领域内近年来的发展历程,罗列了两种级别关系抽取所采用的数据集,对数据集的特点进行概述;分别对句子级关系抽取和文档级关系抽取进行了阐述,介绍了不同级别关系抽取的优缺点,并分析了各类方法中代表模型的性能以及局限性;总结了当前研究领域中存在的问题并对关系抽取发展前景进行了展望。 展开更多
关键词 信息抽取 实体关系抽取 句子级关系抽取 文档级关系抽取 知识图谱构建
下载PDF
文档级事件抽取反向推理模型
15
作者 纪婉婷 马宇航 +2 位作者 鲁闻一 王俊陆 宋宝燕 《计算机工程与应用》 CSCD 北大核心 2024年第5期122-129,共8页
事件抽取旨在从非结构化文本中检测事件类型并抽取事件要素。现有方法在处理文档级文本时仍存在局限性。这是因为文档级文本可能由多个事件组成,并且构成某一事件的事件要素通常分散在不同句子中。为应对上述挑战,提出了一种文档级事件... 事件抽取旨在从非结构化文本中检测事件类型并抽取事件要素。现有方法在处理文档级文本时仍存在局限性。这是因为文档级文本可能由多个事件组成,并且构成某一事件的事件要素通常分散在不同句子中。为应对上述挑战,提出了一种文档级事件抽取反向推理模型(reverse inference model for document-level event extraction,RIDEE)。基于无触发词的设计,将文档级事件抽取转化为候选事件要素抽取和事件触发推理两个子任务,并行式抽取事件要素并检测事件类型。此外,设计了一种用于存储历史事件的事件依赖池,使得模型在处理多事件文本时可以充分利用事件之间的依赖关系。公开数据集上的实验结果表明,与现有事件抽取模型相比,RIDEE在进行文档级事件抽取时具有更优的性能。 展开更多
关键词 文档级事件抽取 反向推理 无触发词 事件依赖池
下载PDF
DRE-3DC:基于三维表征建模的篇章级关系抽取模型
16
作者 王宇 王震 +2 位作者 温立强 李伟平 赵文 《电子学报》 EI CAS CSCD 北大核心 2024年第9期2950-2960,共11页
篇章级关系抽取任务旨在从非结构化文档的多个句子中提取事实,是构建领域知识库和知识问答应用的关键环节,相较于句子级关系抽取,该任务既要求模型能够基于文档结构特征捕获实体间的复杂交互,还要应对严重的关系类别长尾分布问题.现有... 篇章级关系抽取任务旨在从非结构化文档的多个句子中提取事实,是构建领域知识库和知识问答应用的关键环节,相较于句子级关系抽取,该任务既要求模型能够基于文档结构特征捕获实体间的复杂交互,还要应对严重的关系类别长尾分布问题.现有基于表格的关系抽取模型主要对文档进行“实体/实体”二维建模,采用多层卷积网络或局部注意力机制提取实体间的交互特征,由于未显式对关系语义进行解耦建模,使得模型无法避免类别重叠影响和捕获关系的方向性特征,导致缺乏实体交互的充分语义信息.针对上述挑战,本文提出了一种基于三维表征建模的篇章级关系抽取模型DRE-3DC(Document-Level Relation Extraction with Three-Dimensional Representation Combination Modeling),对二维表格建模方式进行扩展,形成“实体/实体/关系”三维表征建模,采用基于形变卷积的三重注意力机制有效区分和聚合不同语义空间下的实体间及实体与关系的交互表征,自适应地增强模型对文档结构特征的聚合.同时,采用多任务学习方法增强模型对文档整体关系类别组合的感知来缓解篇章级关系抽取任务中的关系类别长尾分布问题.在DocRED和Revisit-DocRED两个篇章级关系抽取数据集上进行的实验结果表明,DRE-3DC模型性能良好,并通过消融实验、对比分析和实例分析,验证了本文所提方法的有效性. 展开更多
关键词 篇章级关系抽取 三维表征 三重注意力 形变卷积网络 多任务学习
下载PDF
神经机器翻译综述 被引量:2
17
作者 章钧津 田永红 +1 位作者 宋哲煜 郝宇峰 《计算机工程与应用》 CSCD 北大核心 2024年第4期57-74,共18页
机器翻译主要研究如何将源语言翻译为目标语言,对于促进民族之间的交流具有重要意义。目前神经机器翻译凭借翻译速度和译文质量成为主流的机器翻译方法。为更好地进行脉络梳理,首先对机器翻译的历史和方法进行研究,并对基于规则的机器... 机器翻译主要研究如何将源语言翻译为目标语言,对于促进民族之间的交流具有重要意义。目前神经机器翻译凭借翻译速度和译文质量成为主流的机器翻译方法。为更好地进行脉络梳理,首先对机器翻译的历史和方法进行研究,并对基于规则的机器翻译、基于统计的机器翻译和基于深度学习的机器翻译三种方法进行对比总结;然后引出神经机器翻译,并对其常见的类型进行讲解;接着选取多模态机器翻译、非自回归机器翻译、篇章级机器翻译、多语言机器翻译、数据增强技术和预训练模型六个主要的神经机器翻译研究领域进行重点介绍;最后从低资源语言、上下文相关翻译、未登录词和大模型四个方面对神经机器翻译的未来进行了展望。通过系统性的介绍以更好地理解神经机器翻译的发展现状。 展开更多
关键词 机器翻译 神经机器翻译 篇章级机器翻译 数据增强 预处理技术
下载PDF
基于伪触发词的并行预测篇章级事件抽取方法
18
作者 秦海涛 线岩团 +1 位作者 相艳 黄于欣 《电子技术应用》 2024年第4期67-74,共8页
篇章级事件抽取一般将事件抽取任务分为候选实体识别、事件检测和论元识别3个子任务,然后采用级联的方式依次进行,这样的方式会造成误差传递;另外,现有的大多数模型在解码事件时,对事件数量的预测隐含在解码过程中,且只能按照预定义的... 篇章级事件抽取一般将事件抽取任务分为候选实体识别、事件检测和论元识别3个子任务,然后采用级联的方式依次进行,这样的方式会造成误差传递;另外,现有的大多数模型在解码事件时,对事件数量的预测隐含在解码过程中,且只能按照预定义的事件顺序及预定义的角色顺序预测事件论元,使得先抽取的事件并没有考虑到后面抽取的事件。针对以上问题提出一种多任务联合的并行预测事件抽取框架。首先,使用预训练语言模型作为文档句子的编码器,检测文档中存在的事件类型,并使用结构化自注意力机制获取伪触发词特征,预测每种事件类型的事件数量;然后将伪触发词特征与候选论元特征进行交互,并行预测每个事件对应的事件论元,在大幅缩减模型训练时间的同时获得与基线模型相比更好的性能。最终事件抽取结果F1值为78%,事件类型检测子任务F1值为98.7%,事件数量预测子任务F1值为90.1%,实体识别子任务F1值为90.3%。 展开更多
关键词 篇章级事件抽取 多任务联合 预训练语言模型 结构化自注意力机制 并行预测
下载PDF
基于多关系视图轴向注意力的文档级关系抽取
19
作者 吴皓 周刚 +2 位作者 卢记仓 刘洪波 陈静 《计算机科学》 CSCD 北大核心 2024年第10期337-343,共7页
文档级关系抽取旨在从文档中提取多个实体之间的关系。针对现有工作在不同关系类型的条件下,对于实体间的多跳推理能力受限的问题,提出了一种基于多关系视图轴向注意力的文档级关系抽取模型。该模型将依据实体间的关系类型构建多视图的... 文档级关系抽取旨在从文档中提取多个实体之间的关系。针对现有工作在不同关系类型的条件下,对于实体间的多跳推理能力受限的问题,提出了一种基于多关系视图轴向注意力的文档级关系抽取模型。该模型将依据实体间的关系类型构建多视图的邻接矩阵,并基于该多视图的邻接矩阵进行多跳推理。基于两个文档级关系抽取基准数据集GDA和DocRED分别进行实验,结果表明,所提模型在生物数据集GDA上的F1指标达到85.7%,性能明显优于基线模型;在DocRED数据集上也能够有效捕获实体间的多跳关系。 展开更多
关键词 关系抽取 文档级 轴向注意力 多视图 多跳推理
下载PDF
基于证据图推理的文档级实体关系抽取
20
作者 张钰 王嘉 +1 位作者 袁建园 张益嘉 《情报杂志》 CSSCI 北大核心 2024年第7期122-130,共9页
[研究目的]为缓解文档级实体关系抽取任务中存在的句子噪声问题,提高文档级实体关系抽取性能,提出一种基于证据图推理的文档级实体关系抽取方法,为文档级实体关系抽取和知识发现研究提供参考。[研究方法]通过启发式规则捕获实体对间关... [研究目的]为缓解文档级实体关系抽取任务中存在的句子噪声问题,提高文档级实体关系抽取性能,提出一种基于证据图推理的文档级实体关系抽取方法,为文档级实体关系抽取和知识发现研究提供参考。[研究方法]通过启发式规则捕获实体对间关系推理所需证据句路径信息;引入图结构学习思想将证据句路径信息融入异构文档图;基于关系图卷积网络进行关系推理以提升文档图对证据句信息的聚合能力;采用前馈神经网络对实体关系进行预测,实现文档级实体关系高效抽取。[研究结论]所提出的模型在国际公开文档级评测数据集CDR和GDA上F1值分别达到71.3%和85.4%,较基准模型EIDER提高1.2%与1.1%。实验结果表明该方法能够有效选择实体关系推理所需证据路径,提升文档级实体关系抽取性能。 展开更多
关键词 文档级实体关系抽取 证据推理路径 图神经网络 启发式规则 知识发现
下载PDF
上一页 1 2 9 下一页 到第
使用帮助 返回顶部