期刊文献+
共找到164篇文章
< 1 2 9 >
每页显示 20 50 100
Storyline Extraction of Document-Level Events Using Large Language Models
1
作者 Ziyang Hu Yaxiong Li 《Journal of Computer and Communications》 2024年第11期162-172,共11页
This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prom... This article proposes a document-level prompt learning approach using LLMs to extract the timeline-based storyline. Through verification tests on datasets such as ESCv1.2 and Timeline17, the results show that the prompt + one-shot learning proposed in this article works well. Meanwhile, our research findings indicate that although timeline-based storyline extraction has shown promising prospects in the practical applications of LLMs, it is still a complex natural language processing task that requires further research. 展开更多
关键词 document-level Storyline Extraction TIMELINE Large Language Models Topological Structure of Storyline Prompt Learning
下载PDF
A document-level model for tweet event detection
2
作者 Qin Yanxia Zhang Yue +1 位作者 Zhang Min Zheng Dequan 《High Technology Letters》 EI CAS 2018年第2期208-218,共11页
Social media like Twitter who serves as a novel news medium and has become increasingly popular since its establishment. Large scale first-hand user-generated tweets motivate automatic event detection on Twitter. Prev... Social media like Twitter who serves as a novel news medium and has become increasingly popular since its establishment. Large scale first-hand user-generated tweets motivate automatic event detection on Twitter. Previous unsupervised approaches detected events by clustering words. These methods detect events using burstiness,which measures surging frequencies of words at certain time windows. However,event clusters represented by a set of individual words are difficult to understand. This issue is addressed by building a document-level event detection model that directly calculates the burstiness of tweets,leveraging distributed word representations for modeling semantic information,thereby avoiding sparsity. Results show that the document-level model not only offers event summaries that are directly human-readable,but also gives significantly improved accuracies compared to previous methods on unsupervised tweet event detection,which are based on words/segments. 展开更多
关键词 social media event detection TWITTER bursty UNSUPERVISED document-level
下载PDF
Denoising Graph Inference Network for Document-Level Relation Extraction 被引量:2
3
作者 Hailin Wang Ke Qin +1 位作者 Guiduo Duan Guangchun Luo 《Big Data Mining and Analytics》 EI CSCD 2023年第2期248-262,共15页
Relation Extraction(RE)is to obtain a predefined relation type of two entities mentioned in a piece of text,e.g.,a sentence-level or a document-level text.Most existing studies suffer from the noise in the text,and ne... Relation Extraction(RE)is to obtain a predefined relation type of two entities mentioned in a piece of text,e.g.,a sentence-level or a document-level text.Most existing studies suffer from the noise in the text,and necessary pruning is of great importance.The conventional sentence-level RE task addresses this issue by a denoising method using the shortest dependency path to build a long-range semantic dependency between entity pairs.However,this kind of denoising method is scarce in document-level RE.In this work,we explicitly model a denoised document-level graph based on linguistic knowledge to capture various long-range semantic dependencies among entities.We first formalize a Syntactic Dependency Tree forest(SDT-forest)by introducing the syntax and discourse dependency relation.Then,the Steiner tree algorithm extracts a mention-level denoised graph,Steiner Graph(SG),removing linguistically irrelevant words from the SDT-forest.We then devise a slide residual attention to highlight word-level evidence on text and SG.Finally,the classification is established on the SG to infer the relations of entity pairs.We conduct extensive experiments on three public datasets.The results evidence that our method is beneficial to establish long-range semantic dependency and can improve the classification performance with longer texts. 展开更多
关键词 Relation Eextraction(RE) document-level DENOISING linguistic knowledge attention mechanism
原文传递
Document-Level Neural Machine Translation with Hierarchical Modeling of Global Context
4
作者 Xin Tan Long-Yin Zhang Guo-Dong Zhou 《Journal of Computer Science & Technology》 SCIE EI CSCD 2022年第2期295-308,共14页
Document-level machine translation(MT)remains challenging due to its difficulty in efficiently using documentlevel global context for translation.In this paper,we propose a hierarchical model to learn the global conte... Document-level machine translation(MT)remains challenging due to its difficulty in efficiently using documentlevel global context for translation.In this paper,we propose a hierarchical model to learn the global context for documentlevel neural machine translation(NMT).This is done through a sentence encoder to capture intra-sentence dependencies and a document encoder to model document-level inter-sentence consistency and coherence.With this hierarchical architecture,we feedback the extracted document-level global context to each word in a top-down fashion to distinguish different translations of a word according to its specific surrounding context.Notably,we explore the effect of three popular attention functions during the information backward-distribution phase to take a deep look into the global context information distribution of our model.In addition,since large-scale in-domain document-level parallel corpora are usually unavailable,we use a two-step training strategy to take advantage of a large-scale corpus with out-of-domain parallel sentence pairs and a small-scale corpus with in-domain parallel document pairs to achieve the domain adaptability.Experimental results of our model on Chinese-English and English-German corpora significantly improve the Transformer baseline by 4.5 BLEU points on average which demonstrates the effectiveness of our proposed hierarchical model in document-level NMT. 展开更多
关键词 neural machine translation document-level translation global context hierarchical model
原文传递
零信任环境下的多层次身份认证数据流安全检测算法
5
作者 顾健华 冯建华 +1 位作者 高泽芳 文成江 《现代电子技术》 北大核心 2025年第1期85-89,共5页
身份认证数据流中的敏感信息可能在传输过程中被攻击者截获,并用于恶意目的,导致隐私泄露、身份盗用等风险,为确保网络安全性,提高主体身份认证安全性,提出零信任环境下的多层次身份认证数据流安全检测算法。采用改进的文档指纹检测算... 身份认证数据流中的敏感信息可能在传输过程中被攻击者截获,并用于恶意目的,导致隐私泄露、身份盗用等风险,为确保网络安全性,提高主体身份认证安全性,提出零信任环境下的多层次身份认证数据流安全检测算法。采用改进的文档指纹检测算法实现多层次身份认证过程中主体和客体交互数据流安全监测。通过Rabin-Karp算法实现身份认证数据文档的分块,采用Winnow算法划分身份认证数据分块文档边界后,得到身份认证数据文档指纹,将其与指纹库中的指纹进行匹配对比,识别出多层次身份认证数据流中的异常数据,实现多层次身份认证数据流安全检测。实验结果表明,该算法具有较好的身份认证数据流安全检测能力,有效地降低了网络威胁频率,提升了网络安全性。 展开更多
关键词 零信任 多层次身份认证 数据流安全检测 文档指纹检测算法 Rabin-Karp算法 WINNOW算法
下载PDF
基于注意力机制语义增强的文档级关系抽取
6
作者 柳先辉 吴文达 +1 位作者 赵卫东 侯文龙 《同济大学学报(自然科学版)》 EI CAS CSCD 北大核心 2024年第5期822-828,共7页
文档级关系抽取旨在从文档中抽取出多个实体对之间的关系,具有较高的复杂性。针对文档级关系抽取中的多实体、关系相关性、关系分布不平衡等问题,提出了一种基于注意力机制(Attention)语义增强的文档级关系抽取方法,能够实现实体对之间... 文档级关系抽取旨在从文档中抽取出多个实体对之间的关系,具有较高的复杂性。针对文档级关系抽取中的多实体、关系相关性、关系分布不平衡等问题,提出了一种基于注意力机制(Attention)语义增强的文档级关系抽取方法,能够实现实体对之间关系的推理。具体来说,首先在数据编码模块改进编码策略,引入更多实体信息,通过编码网络捕获文档的语义特征,获得实体对矩阵;然后,设计了一个基于Attention门控机制的U-Net网络,对实体对矩阵进行局部信息捕获和全局信息汇总,实现语义增强;最后,使用自适应焦点损失函数缓解关系分布不平衡的问题。在4个公开的文档级关系抽取数据集(DocRED、CDR、GDA和DWIE)上评估了Att-DocuNet模型并取得了良好的实验结果。 展开更多
关键词 文档级关系抽取 注意力机制 语义增强 焦点损失
下载PDF
融合实体和上下文信息的篇章关系抽取研究
7
作者 黄河燕 袁长森 冯冲 《自动化学报》 EI CAS CSCD 北大核心 2024年第10期1953-1962,共10页
篇章关系抽取旨在识别篇章中实体对之间的关系.相较于传统的句子级别关系抽取,篇章级别关系抽取任务更加贴近实际应用,但是它对实体对的跨句子推理和上下文信息感知等问题提出了新的挑战.本文提出融合实体和上下文信息(Fuse entity and ... 篇章关系抽取旨在识别篇章中实体对之间的关系.相较于传统的句子级别关系抽取,篇章级别关系抽取任务更加贴近实际应用,但是它对实体对的跨句子推理和上下文信息感知等问题提出了新的挑战.本文提出融合实体和上下文信息(Fuse entity and context information,FECI)的篇章关系抽取方法,它包含两个模块,分别是实体信息抽取模块和上下文信息抽取模块.实体信息抽取模块从两个实体中自动地抽取出能够表示实体对关系的特征.上下文信息抽取模块根据实体对的提及位置信息,从篇章中抽取不同的上下文关系特征.本文在三个篇章级别的关系抽取数据集上进行实验,效果得到显著提升. 展开更多
关键词 篇章关系抽取 实体信息 上下文信息 提及位置信息 跨句子推理
下载PDF
基于双粒度图的文档级关系抽取
8
作者 廖涛 张国畅 张顺香 《计算机工程》 CAS CSCD 北大核心 2024年第10期164-173,共10页
文档级关系抽取是指在非结构性文本中抽取实体对之间的关系。针对当前文档级关系抽取方法未能充分利用文档语义信息且难以处理文档的噪声干扰问题,提出一种基于双粒度文档图的关系抽取模型,采用一种新型的构图思路以及降噪方法,分别在... 文档级关系抽取是指在非结构性文本中抽取实体对之间的关系。针对当前文档级关系抽取方法未能充分利用文档语义信息且难以处理文档的噪声干扰问题,提出一种基于双粒度文档图的关系抽取模型,采用一种新型的构图思路以及降噪方法,分别在句间和句内两个层面进行设计。首先,在句间层面使用修辞语篇关系实体提及关系构建修辞语篇关系图RST-graph,采用异步降噪方式生成粗粒度文档图(CGD-graph),缓解了因实体对的句间关系路径长于句内关系路径造成的结构性误剪枝问题。然后,在句内层面采用依存句法关系对文档中的句子进行解析,构造依存句法树(SDT),增强句内语义信息。最后,将SDT和CGD-graph中存在的公共锚点相连接,构造细粒度文档图(FGD-graph)。实验结果表明,与去噪图推理(DGI)模型相比,该模型的lgn F1值和F1值分别提升了0.40和0.51个百分点,并且在实体对的多标签关系上随着标签数量的增多抽取效果提升较为显著。 展开更多
关键词 文档级 关系抽取 双粒度文档图 异步降噪 修辞语篇关系 依存句法关系
下载PDF
基于多粒度阅读器和图注意力网络的文档级事件抽取
9
作者 薛颂东 李永豪 赵红燕 《计算机应用研究》 CSCD 北大核心 2024年第8期2329-2335,共7页
文档级事件抽取面临论元分散和多事件两大挑战,已有工作大多采用逐句抽取候选论元的方式,难以建模跨句的上下文信息。为此,提出了一种基于多粒度阅读器和图注意网络的文档级事件抽取模型,采用多粒度阅读器实现多层次语义编码,通过图注... 文档级事件抽取面临论元分散和多事件两大挑战,已有工作大多采用逐句抽取候选论元的方式,难以建模跨句的上下文信息。为此,提出了一种基于多粒度阅读器和图注意网络的文档级事件抽取模型,采用多粒度阅读器实现多层次语义编码,通过图注意力网络捕获实体对之间的局部和全局关系,构建基于实体对相似度的剪枝完全图作为伪触发器,全面捕捉文档中的事件和论元。在公共数据集ChFinAnn和DuEE-Fin上进行了实验,结果表明提出的方法改善了论元分散问题,提升了模型事件抽取性能。 展开更多
关键词 多粒度阅读器 图注意力网络 文档级事件抽取
下载PDF
基于FinBERT和Bi-GRU的篇章级事件检测模型
10
作者 廖涛 王凯 张顺香 《阜阳师范大学学报(自然科学版)》 2024年第3期1-6,共6页
现有的篇章级事件检测方法一般分为候选实体抽取和事件检测两个子任务,候选实体抽取任务的精度影响着事件检测任务的结果。针对现有方法候选实体抽取精度不足的问题,提出了基于FinBERT和Bi-GRU的篇章级事件检测模型。首先,采用FinBERT... 现有的篇章级事件检测方法一般分为候选实体抽取和事件检测两个子任务,候选实体抽取任务的精度影响着事件检测任务的结果。针对现有方法候选实体抽取精度不足的问题,提出了基于FinBERT和Bi-GRU的篇章级事件检测模型。首先,采用FinBERT预训练模型提升词嵌入向量对金融语义的表示能力,从而增强模型对金融语义的感知。其次,将上一层获取到的语义表示输入Bi-GRU模型和多头注意力机制中捕获全局和局部特征,通过CRF进行解码并标注出候选实体和实体类型。最后,根据抽取的候选实体信息判断篇章中存在的预定义事件。实验结果表明,本文方法提升了候选实体抽取任务的精度,取得了较好的篇章级事件检测结果。 展开更多
关键词 篇章级事件检测 候选实体 FinBERT Bi-GRU
下载PDF
试析医养结合规范性文件的法理依据、效力及合法性要求
11
作者 李西霞 《山西师大学报(社会科学版)》 2024年第2期106-112,共7页
2013年国家提出医养结合新型养老模式,是应对人口老龄化的创新举措。中央和省级政府及其部门陆续出台一系列规范性文件,促进各地探索医养结合体制机制试点工作,并取得一定成效。然而,由于这些规范性文件效力位阶低,其创设的相关义务超... 2013年国家提出医养结合新型养老模式,是应对人口老龄化的创新举措。中央和省级政府及其部门陆续出台一系列规范性文件,促进各地探索医养结合体制机制试点工作,并取得一定成效。然而,由于这些规范性文件效力位阶低,其创设的相关义务超越所涉上位法规定,致使医养结合面临制度性障碍。对此,应加大力度推进医养结合法治建设,为医养结合发展提供法治保障。这也是我国全面依法治国战略对医养结合依法推进的必然要求。 展开更多
关键词 医养结合 规范性文件 效力 合法性 法治保障
下载PDF
基于BERT和图注意力网络的篇章级事件论元识别
12
作者 王凯 廖涛 《现代计算机》 2024年第6期14-19,64,共7页
事件论元识别是事件抽取的子任务之一,其目的在于识别文本中与事件相关的论元及论元对应的论元角色。研究表明,句子的依存句法关系有助于事件论元任务识别,然而,在构造篇章的依存句法关系时容易引入不相关的论元产生噪声问题,现有方法... 事件论元识别是事件抽取的子任务之一,其目的在于识别文本中与事件相关的论元及论元对应的论元角色。研究表明,句子的依存句法关系有助于事件论元任务识别,然而,在构造篇章的依存句法关系时容易引入不相关的论元产生噪声问题,现有方法对噪声问题处理不佳。针对该问题,提出了一个基于BERT和图注意力网络的篇章级事件论元识别模型。该模型从两个角度去解决噪声问题,一方面,通过获取充分的篇章语义特征作为辅助,去构建更有效的篇章依存句法特征;另一方面,采用图注意力网络对不同的论元节点分配不同的权重,从而去除掉无效的论元。在RAMS语料库上的实验结果表明,该方法有效解决了篇章依存句法关系中存在的噪声问题,取得了较好的篇章级事件论元识别结果。 展开更多
关键词 篇章级事件论元识别 依存句法关系 BERT 图注意力网络
下载PDF
融合目标端上下文的篇章神经机器翻译
13
作者 贾爱鑫 李军辉 +1 位作者 贡正仙 张民 《中文信息学报》 CSCD 北大核心 2024年第4期59-68,共10页
神经机器翻译在句子级翻译任务上取得了令人瞩目的效果,但是句子级翻译的译文会存在一致性、指代等篇章问题,篇章翻译通过利用上下文信息来解决上述问题。不同于以往使用源端上下文建模的方法,该文提出了融合目标端上下文信息的篇章神... 神经机器翻译在句子级翻译任务上取得了令人瞩目的效果,但是句子级翻译的译文会存在一致性、指代等篇章问题,篇章翻译通过利用上下文信息来解决上述问题。不同于以往使用源端上下文建模的方法,该文提出了融合目标端上下文信息的篇章神经机器翻译。具体地,该文借助推敲网络的思想,对篇章源端进行二次翻译,第一次基于句子级翻译,第二次翻译参考了全篇的第一次翻译结果。基于LDC中英篇章数据集和WMT英德篇章数据集的实验结果表明,在引入较少的参数的条件下,该文方法能显著提高翻译性能。同时,随着第一次翻译(即句子级译文)质量的提升,所提方法也更有效。 展开更多
关键词 神经机器翻译 推敲网络 篇章翻译
下载PDF
融合指代消解的神经机器翻译研究
14
作者 冯勤 贡正仙 +1 位作者 李军辉 周国栋 《中文信息学报》 CSCD 北大核心 2024年第6期67-76,共10页
篇章中的同一实体经常会呈现出不同的表述,形成一系列复杂的指代关系,这给篇章翻译带来了很大的挑战。该文重点探索指代消解和篇章神经机器翻译的融合方案,首先为指代链设计相应的指代表征;其次使用软约束和硬约束两种方法在翻译系统中... 篇章中的同一实体经常会呈现出不同的表述,形成一系列复杂的指代关系,这给篇章翻译带来了很大的挑战。该文重点探索指代消解和篇章神经机器翻译的融合方案,首先为指代链设计相应的指代表征;其次使用软约束和硬约束两种方法在翻译系统中实现指代信息的融合。该文建议的方法分别在英语-德语和中文-英语语言对上进行了实验,实验结果表明,相比于同期最好的句子级翻译系统,该方法能使翻译性能获得明显提升。此外,在英语-德语的代词翻译质量的专门评估中,准确率也有显著提升。 展开更多
关键词 指代表征 神经机器翻译 篇章级机器翻译
下载PDF
面向文本实体关系抽取研究综述
15
作者 任安琪 柳林 +1 位作者 王海龙 刘静 《计算机科学与探索》 CSCD 北大核心 2024年第11期2848-2871,共24页
信息抽取是知识图谱构建的基础,关系抽取作为信息抽取的关键流程和核心步骤,旨在从文本数据中定位实体并识别实体间的语义联系。因此提高关系抽取的效率可以有效提升信息抽取的质量,进而影响到知识图谱的构建以及后续的下游任务。关系... 信息抽取是知识图谱构建的基础,关系抽取作为信息抽取的关键流程和核心步骤,旨在从文本数据中定位实体并识别实体间的语义联系。因此提高关系抽取的效率可以有效提升信息抽取的质量,进而影响到知识图谱的构建以及后续的下游任务。关系抽取按照抽取文本长度可以分为句子级关系抽取和文档级关系抽取,两种级别的抽取方法在不同应用场景下各有优缺点。句子级关系抽取适用于较小规模数据集的应用场景,而文档级关系抽取适用于新闻事件分析、长篇报告或文章的关系挖掘等场景。不同于已有的关系抽取,介绍了关系抽取的基本概念以及领域内近年来的发展历程,罗列了两种级别关系抽取所采用的数据集,对数据集的特点进行概述;分别对句子级关系抽取和文档级关系抽取进行了阐述,介绍了不同级别关系抽取的优缺点,并分析了各类方法中代表模型的性能以及局限性;总结了当前研究领域中存在的问题并对关系抽取发展前景进行了展望。 展开更多
关键词 信息抽取 实体关系抽取 句子级关系抽取 文档级关系抽取 知识图谱构建
下载PDF
篇章级神经机器翻译语篇结构研究
16
作者 姜云卓 贡正仙 李军辉 《厦门大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第6期993-1004,共12页
[目的]当前篇章级机器翻译系统通过使用上下文信息来生成更好的翻译,但大部分工作都是从模型的角度出发,利用上下文字词信息来构建有效的网络结构,从而忽略了源端文本内部的结构,这导致了对上下文的利用不足.[方法]在修辞结构理论的指导... [目的]当前篇章级机器翻译系统通过使用上下文信息来生成更好的翻译,但大部分工作都是从模型的角度出发,利用上下文字词信息来构建有效的网络结构,从而忽略了源端文本内部的结构,这导致了对上下文的利用不足.[方法]在修辞结构理论的指导下,设计丰富的基本语篇单元(EDU)表示,从而刻画其文本覆盖范围、携带信息量和简单的主从修辞关系,并提出相应的算法将修辞结构树中复杂修辞关系映射到EDU中.[结果]本文方法可以在不增加序列长度的基础上最大程度地保留EDU的修辞关系信息,在两个语言对的4个数据集上的实验结果表明,改进的模型在多个优质的基线系统上实现了大于1 BLEU分数的显著性能提升,并且在本文根据EDU分布特征提出的定量评估中也表现出较为明显的改进结果.[结论]本文提出的方法可以方便应用于多个篇章级神经机器翻译模型中,具有高效灵活的特点和广泛的适用性. 展开更多
关键词 神经机器翻译 语篇分析 篇章翻译 修辞结构理论
下载PDF
文档级事件抽取反向推理模型
17
作者 纪婉婷 马宇航 +2 位作者 鲁闻一 王俊陆 宋宝燕 《计算机工程与应用》 CSCD 北大核心 2024年第5期122-129,共8页
事件抽取旨在从非结构化文本中检测事件类型并抽取事件要素。现有方法在处理文档级文本时仍存在局限性。这是因为文档级文本可能由多个事件组成,并且构成某一事件的事件要素通常分散在不同句子中。为应对上述挑战,提出了一种文档级事件... 事件抽取旨在从非结构化文本中检测事件类型并抽取事件要素。现有方法在处理文档级文本时仍存在局限性。这是因为文档级文本可能由多个事件组成,并且构成某一事件的事件要素通常分散在不同句子中。为应对上述挑战,提出了一种文档级事件抽取反向推理模型(reverse inference model for document-level event extraction,RIDEE)。基于无触发词的设计,将文档级事件抽取转化为候选事件要素抽取和事件触发推理两个子任务,并行式抽取事件要素并检测事件类型。此外,设计了一种用于存储历史事件的事件依赖池,使得模型在处理多事件文本时可以充分利用事件之间的依赖关系。公开数据集上的实验结果表明,与现有事件抽取模型相比,RIDEE在进行文档级事件抽取时具有更优的性能。 展开更多
关键词 文档级事件抽取 反向推理 无触发词 事件依赖池
下载PDF
DRE-3DC:基于三维表征建模的篇章级关系抽取模型
18
作者 王宇 王震 +2 位作者 温立强 李伟平 赵文 《电子学报》 EI CAS CSCD 北大核心 2024年第9期2950-2960,共11页
篇章级关系抽取任务旨在从非结构化文档的多个句子中提取事实,是构建领域知识库和知识问答应用的关键环节,相较于句子级关系抽取,该任务既要求模型能够基于文档结构特征捕获实体间的复杂交互,还要应对严重的关系类别长尾分布问题.现有... 篇章级关系抽取任务旨在从非结构化文档的多个句子中提取事实,是构建领域知识库和知识问答应用的关键环节,相较于句子级关系抽取,该任务既要求模型能够基于文档结构特征捕获实体间的复杂交互,还要应对严重的关系类别长尾分布问题.现有基于表格的关系抽取模型主要对文档进行“实体/实体”二维建模,采用多层卷积网络或局部注意力机制提取实体间的交互特征,由于未显式对关系语义进行解耦建模,使得模型无法避免类别重叠影响和捕获关系的方向性特征,导致缺乏实体交互的充分语义信息.针对上述挑战,本文提出了一种基于三维表征建模的篇章级关系抽取模型DRE-3DC(Document-Level Relation Extraction with Three-Dimensional Representation Combination Modeling),对二维表格建模方式进行扩展,形成“实体/实体/关系”三维表征建模,采用基于形变卷积的三重注意力机制有效区分和聚合不同语义空间下的实体间及实体与关系的交互表征,自适应地增强模型对文档结构特征的聚合.同时,采用多任务学习方法增强模型对文档整体关系类别组合的感知来缓解篇章级关系抽取任务中的关系类别长尾分布问题.在DocRED和Revisit-DocRED两个篇章级关系抽取数据集上进行的实验结果表明,DRE-3DC模型性能良好,并通过消融实验、对比分析和实例分析,验证了本文所提方法的有效性. 展开更多
关键词 篇章级关系抽取 三维表征 三重注意力 形变卷积网络 多任务学习
下载PDF
神经机器翻译综述 被引量:2
19
作者 章钧津 田永红 +1 位作者 宋哲煜 郝宇峰 《计算机工程与应用》 CSCD 北大核心 2024年第4期57-74,共18页
机器翻译主要研究如何将源语言翻译为目标语言,对于促进民族之间的交流具有重要意义。目前神经机器翻译凭借翻译速度和译文质量成为主流的机器翻译方法。为更好地进行脉络梳理,首先对机器翻译的历史和方法进行研究,并对基于规则的机器... 机器翻译主要研究如何将源语言翻译为目标语言,对于促进民族之间的交流具有重要意义。目前神经机器翻译凭借翻译速度和译文质量成为主流的机器翻译方法。为更好地进行脉络梳理,首先对机器翻译的历史和方法进行研究,并对基于规则的机器翻译、基于统计的机器翻译和基于深度学习的机器翻译三种方法进行对比总结;然后引出神经机器翻译,并对其常见的类型进行讲解;接着选取多模态机器翻译、非自回归机器翻译、篇章级机器翻译、多语言机器翻译、数据增强技术和预训练模型六个主要的神经机器翻译研究领域进行重点介绍;最后从低资源语言、上下文相关翻译、未登录词和大模型四个方面对神经机器翻译的未来进行了展望。通过系统性的介绍以更好地理解神经机器翻译的发展现状。 展开更多
关键词 机器翻译 神经机器翻译 篇章级机器翻译 数据增强 预处理技术
下载PDF
基于伪触发词的并行预测篇章级事件抽取方法
20
作者 秦海涛 线岩团 +1 位作者 相艳 黄于欣 《电子技术应用》 2024年第4期67-74,共8页
篇章级事件抽取一般将事件抽取任务分为候选实体识别、事件检测和论元识别3个子任务,然后采用级联的方式依次进行,这样的方式会造成误差传递;另外,现有的大多数模型在解码事件时,对事件数量的预测隐含在解码过程中,且只能按照预定义的... 篇章级事件抽取一般将事件抽取任务分为候选实体识别、事件检测和论元识别3个子任务,然后采用级联的方式依次进行,这样的方式会造成误差传递;另外,现有的大多数模型在解码事件时,对事件数量的预测隐含在解码过程中,且只能按照预定义的事件顺序及预定义的角色顺序预测事件论元,使得先抽取的事件并没有考虑到后面抽取的事件。针对以上问题提出一种多任务联合的并行预测事件抽取框架。首先,使用预训练语言模型作为文档句子的编码器,检测文档中存在的事件类型,并使用结构化自注意力机制获取伪触发词特征,预测每种事件类型的事件数量;然后将伪触发词特征与候选论元特征进行交互,并行预测每个事件对应的事件论元,在大幅缩减模型训练时间的同时获得与基线模型相比更好的性能。最终事件抽取结果F1值为78%,事件类型检测子任务F1值为98.7%,事件数量预测子任务F1值为90.1%,实体识别子任务F1值为90.3%。 展开更多
关键词 篇章级事件抽取 多任务联合 预训练语言模型 结构化自注意力机制 并行预测
下载PDF
上一页 1 2 9 下一页 到第
使用帮助 返回顶部