期刊文献+
共找到137篇文章
< 1 2 7 >
每页显示 20 50 100
PAL-BERT:An Improved Question Answering Model
1
作者 Wenfeng Zheng Siyu Lu +3 位作者 Zhuohang Cai Ruiyang Wang Lei Wang Lirong Yin 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第6期2729-2745,共17页
In the field of natural language processing(NLP),there have been various pre-training language models in recent years,with question answering systems gaining significant attention.However,as algorithms,data,and comput... In the field of natural language processing(NLP),there have been various pre-training language models in recent years,with question answering systems gaining significant attention.However,as algorithms,data,and computing power advance,the issue of increasingly larger models and a growing number of parameters has surfaced.Consequently,model training has become more costly and less efficient.To enhance the efficiency and accuracy of the training process while reducing themodel volume,this paper proposes a first-order pruningmodel PAL-BERT based on the ALBERT model according to the characteristics of question-answering(QA)system and language model.Firstly,a first-order network pruning method based on the ALBERT model is designed,and the PAL-BERT model is formed.Then,the parameter optimization strategy of the PAL-BERT model is formulated,and the Mish function was used as an activation function instead of ReLU to improve the performance.Finally,after comparison experiments with traditional deep learning models TextCNN and BiLSTM,it is confirmed that PALBERT is a pruning model compression method that can significantly reduce training time and optimize training efficiency.Compared with traditional models,PAL-BERT significantly improves the NLP task’s performance. 展开更多
关键词 PAL-BERT question answering model pretraining language models ALBERT pruning model network pruning TextCNN BiLSTM
下载PDF
Classification of Conversational Sentences Using an Ensemble Pre-Trained Language Model with the Fine-Tuned Parameter
2
作者 R.Sujatha K.Nimala 《Computers, Materials & Continua》 SCIE EI 2024年第2期1669-1686,共18页
Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requir... Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requires more syntactic elements.Most existing strategies focus on the general semantics of a conversation without involving the context of the sentence,recognizing the progress and comparing impacts.An ensemble pre-trained language model was taken up here to classify the conversation sentences from the conversation corpus.The conversational sentences are classified into four categories:information,question,directive,and commission.These classification label sequences are for analyzing the conversation progress and predicting the pecking order of the conversation.Ensemble of Bidirectional Encoder for Representation of Transformer(BERT),Robustly Optimized BERT pretraining Approach(RoBERTa),Generative Pre-Trained Transformer(GPT),DistilBERT and Generalized Autoregressive Pretraining for Language Understanding(XLNet)models are trained on conversation corpus with hyperparameters.Hyperparameter tuning approach is carried out for better performance on sentence classification.This Ensemble of Pre-trained Language Models with a Hyperparameter Tuning(EPLM-HT)system is trained on an annotated conversation dataset.The proposed approach outperformed compared to the base BERT,GPT,DistilBERT and XLNet transformer models.The proposed ensemble model with the fine-tuned parameters achieved an F1_score of 0.88. 展开更多
关键词 Bidirectional encoder for representation of transformer conversation ensemble model fine-tuning generalized autoregressive pretraining for language understanding generative pre-trained transformer hyperparameter tuning natural language processing robustly optimized BERT pretraining approach sentence classification transformer models
下载PDF
RoBGP:A Chinese Nested Biomedical Named Entity Recognition Model Based on RoBERTa and Global Pointer
3
作者 Xiaohui Cui Chao Song +4 位作者 Dongmei Li Xiaolong Qu Jiao Long Yu Yang Hanchao Zhang 《Computers, Materials & Continua》 SCIE EI 2024年第3期3603-3618,共16页
Named Entity Recognition(NER)stands as a fundamental task within the field of biomedical text mining,aiming to extract specific types of entities such as genes,proteins,and diseases from complex biomedical texts and c... Named Entity Recognition(NER)stands as a fundamental task within the field of biomedical text mining,aiming to extract specific types of entities such as genes,proteins,and diseases from complex biomedical texts and categorize them into predefined entity types.This process can provide basic support for the automatic construction of knowledge bases.In contrast to general texts,biomedical texts frequently contain numerous nested entities and local dependencies among these entities,presenting significant challenges to prevailing NER models.To address these issues,we propose a novel Chinese nested biomedical NER model based on RoBERTa and Global Pointer(RoBGP).Our model initially utilizes the RoBERTa-wwm-ext-large pretrained language model to dynamically generate word-level initial vectors.It then incorporates a Bidirectional Long Short-Term Memory network for capturing bidirectional semantic information,effectively addressing the issue of long-distance dependencies.Furthermore,the Global Pointer model is employed to comprehensively recognize all nested entities in the text.We conduct extensive experiments on the Chinese medical dataset CMeEE and the results demonstrate the superior performance of RoBGP over several baseline models.This research confirms the effectiveness of RoBGP in Chinese biomedical NER,providing reliable technical support for biomedical information extraction and knowledge base construction. 展开更多
关键词 BIOMEDICINE knowledge base named entity recognition pretrained language model global pointer
下载PDF
基于渐进机器学习的中文问句匹配方法
4
作者 贺学剑 陈安琪 +2 位作者 郭志强 王致茹 陈群 《工程科学学报》 EI 北大核心 2025年第1期79-90,共12页
问句匹配旨在判断不同问句的意图是否相近.近年来,随着大型预训练语言模型的发展,利用其挖掘问句对在语义层面隐含的匹配信息,取得了目前为止最好的性能.然而,由于基于独立同分布假设,在真实场景中,这些深度学习模型的性能仍然受制于训... 问句匹配旨在判断不同问句的意图是否相近.近年来,随着大型预训练语言模型的发展,利用其挖掘问句对在语义层面隐含的匹配信息,取得了目前为止最好的性能.然而,由于基于独立同分布假设,在真实场景中,这些深度学习模型的性能仍然受制于训练数据的充足程度和目标数据与训练数据之间的分布漂移.本文提出一种基于渐进机器学习的中文问句匹配方法.该方法基于渐进机器学习框架,从不同角度提取问句特征,构建融合各类特征信息的因子图,然后通过迭代的因子推理实现从易到难的渐进学习.在特征建模中,设计并实现了两种类型特征的提取:(1)基于TF-IDF(Term frequency-inverse document frequency)的关键词特征;(2)基于DNN(Deep neural network)的深度语义特征.最后,通过通用的基准中文数据集LCQMC和BQ corpus验证了所提方法的有效性.实验表明,相比于单纯的深度学习模型,基于渐进机器学习的方法可以有效提升问句匹配的准确率,且其性能优势随着标签训练数据的减少而增大. 展开更多
关键词 自然语言理解 中文问句匹配 渐进机器学习 自然语言预训练模型 因子图推理
下载PDF
Investigation of Knowledge Transfer Approaches to Improve the Acoustic Modeling of Vietnamese ASR System 被引量:5
5
作者 Danyang Liu Ji Xu +1 位作者 Pengyuan Zhang Yonghong Yan 《IEEE/CAA Journal of Automatica Sinica》 SCIE EI CSCD 2019年第5期1187-1195,共9页
It is well known that automatic speech recognition(ASR) is a resource consuming task. It takes sufficient amount of data to train a state-of-the-art deep neural network acoustic model. As for some low-resource languag... It is well known that automatic speech recognition(ASR) is a resource consuming task. It takes sufficient amount of data to train a state-of-the-art deep neural network acoustic model. As for some low-resource languages where scripted speech is difficult to obtain, data sparsity is the main problem that limits the performance of speech recognition system. In this paper, several knowledge transfer methods are investigated to overcome the data sparsity problem with the help of high-resource languages.The first one is a pre-training and fine-tuning(PT/FT) method, in which the parameters of hidden layers are initialized with a welltrained neural network. Secondly, the progressive neural networks(Prognets) are investigated. With the help of lateral connections in the network architecture, Prognets are immune to forgetting effect and superior in knowledge transferring. Finally,bottleneck features(BNF) are extracted using cross-lingual deep neural networks and serves as an enhanced feature to improve the performance of ASR system. Experiments are conducted in a low-resource Vietnamese dataset. The results show that all three methods yield significant gains over the baseline system, and the Prognets acoustic model performs the best. Further improvements can be obtained by combining the Prognets model and bottleneck features. 展开更多
关键词 BOTTLENECK feature (BNF) cross-lingual automatic speech recognition (ASR) PROGRESSIVE neural networks (Prognets) model transfer learning
下载PDF
基于迁移学习的棉/毛纤维自动识别方法 被引量:1
6
作者 游小荣 李淑芳 《毛纺科技》 CAS 北大核心 2024年第6期83-88,共6页
针对纺织品废料中织物纤维手工分类存在效率低、主观性强等问题,提出了一种小样本条件下纺织品废料中棉/毛纤维的自动识别方法。首先使用扫描电子显微镜,对已有的棉/毛纤维进行拍照,形成小样本棉/毛纤维图像集;然后分别加载4种经ImageNe... 针对纺织品废料中织物纤维手工分类存在效率低、主观性强等问题,提出了一种小样本条件下纺织品废料中棉/毛纤维的自动识别方法。首先使用扫描电子显微镜,对已有的棉/毛纤维进行拍照,形成小样本棉/毛纤维图像集;然后分别加载4种经ImageNet数据集训练过的模型进行迁移学习,保留或部分微调模型的网络参数,并基于小样本图像集进行训练和验证,生成棉/毛纤维的分类模型;最后基于准确率、精确率和召回率评价指标,对各种分类模型进行对比测试,选出最优分类模型,实现棉/毛纤维的自动识别。经过实验发现ResNetXt50模型在模型训练过程中取得了最高的精确率,其值为97.33%。对测试集进行测试,结果显示通过微调后的4种分类模型中,ResNet50和ResNetXt50的测试准确率可达99.537%,验证了方法的有效性。 展开更多
关键词 纺织品废料 小样本 迁移学习 预训练模型 图像识别
下载PDF
基于连续提示注入与指针网络的农业病害命名实体识别
7
作者 王春山 张宸硕 +3 位作者 吴华瑞 朱华吉 缪祎晟 张立杰 《农业机械学报》 EI CAS CSCD 北大核心 2024年第6期254-261,共8页
针对农业病害领域命名实体识别过程中存在的预训练语言模型利用不充分、外部知识注入利用率低、嵌套命名实体识别率低的问题,本文提出基于连续提示注入和指针网络的命名实体识别模型CP-MRC(Continuous prompts for machine reading comp... 针对农业病害领域命名实体识别过程中存在的预训练语言模型利用不充分、外部知识注入利用率低、嵌套命名实体识别率低的问题,本文提出基于连续提示注入和指针网络的命名实体识别模型CP-MRC(Continuous prompts for machine reading comprehension)。该模型引入BERT(Bidirectional encoder representation from transformers)预训练模型,通过冻结BERT模型原有参数,保留其在预训练阶段获取到的文本表征能力;为了增强模型对领域数据的适用性,在每层Transformer中插入连续可训练提示向量;为提高嵌套命名实体识别的准确性,采用指针网络抽取实体序列。在自建农业病害数据集上开展了对比实验,该数据集包含2933条文本语料,8个实体类型,共10414个实体。实验结果显示,CP-MRC模型的精确率、召回率、F1值达到83.55%、81.4%、82.4%,优于其他模型;在病原、作物两类嵌套实体的识别率较其他模型F1值提升3个百分点和13个百分点,嵌套实体识别率明显提升。本文提出的模型仅采用少量可训练参数仍然具备良好识别性能,为较大规模预训练模型在信息抽取任务上的应用提供了思路。 展开更多
关键词 农业病害 命名实体识别 连续提示 指针网络 嵌套实体 预训练语言模型
下载PDF
人工智能大模型发展带来的风险挑战和对策
8
作者 徐峰 赛秋玥 +1 位作者 刘鑫怡 刘乾 《学术前沿》 CSSCI 北大核心 2024年第13期72-78,共7页
近年来,以预训练大模型为代表的人工智能技术能力快速提升,也加速推动人工智能技术与科技、经济、社会发展深度融合,成为新一轮科技革命和产业变革的重要驱动力量。作为一项新兴技术,人工智能的“双刃剑”效应使得技术在快速进步和应用... 近年来,以预训练大模型为代表的人工智能技术能力快速提升,也加速推动人工智能技术与科技、经济、社会发展深度融合,成为新一轮科技革命和产业变革的重要驱动力量。作为一项新兴技术,人工智能的“双刃剑”效应使得技术在快速进步和应用的同时,也引发了全球对其可能带来各类风险挑战的担忧。特别是随着大模型技术的突破,人工智能可能带来的风险挑战发生了一些新的变化。因此,需要在充分把握人工智能技术发展规律的基础上,从政策法规、技术能力、标准规范等多个方面采取针对性的治理之策,深化全球协作,共同应对风险挑战。 展开更多
关键词 人工智能 预训练大模型 风险挑战 治理对策
下载PDF
基于提示学习的篇章级事件论元抽取方法研究
9
作者 薛继伟 胡馨元 薛鹏杰 《计算机技术与发展》 2024年第6期125-131,共7页
事件论元抽取是指在自然语言文本中识别出事件论元及其对应的角色,是事件抽取的关键。传统事件论元抽取方法将抽取范围局限在单个句子中,在面对长文本中论元分散的情况时表现不佳。近年来,有研究者提出基于提示学习的篇章级事件论元抽... 事件论元抽取是指在自然语言文本中识别出事件论元及其对应的角色,是事件抽取的关键。传统事件论元抽取方法将抽取范围局限在单个句子中,在面对长文本中论元分散的情况时表现不佳。近年来,有研究者提出基于提示学习的篇章级事件论元抽取方法,能根据提示信息在输入文本中获取事件论元,实现事件论元抽取。然而现有基于提示学习的方法大多是由人工手动构建提示模板,模板结构固定容易导致论元抽取错误。针对以上不足,该文在以往基于提示学习研究的基础上,提出以文本触发词为关键实现模板自动构建的方法,并在输入文本中融入事件角色语义信息,使模型能更好地捕获文本语义特征,提高事件论元抽取准确率。在篇章级数据集RAMS上的实验结果表明,该模型在事件论元识别和事件论元分类的F1值分别达到54.3%和48.1%,相比最优的基准方法分别提升了1.8百分点和1.2百分点,验证了模型的有效性。 展开更多
关键词 论元抽取 提示学习 触发词 跨度选择器 预训练语言模型
下载PDF
提示学习驱动的新闻舆情风险识别方法研究 被引量:5
10
作者 曾慧玲 李琳 +1 位作者 吕思洋 何铮 《计算机工程与应用》 CSCD 北大核心 2024年第1期182-188,共7页
从新闻报道中识别企业的风险可以快速定位企业所涉及的风险类别,从而帮助企业及时地做出应对措施。一般而言,新闻舆情风险识别是一种风险标签的多分类任务。以BERT为代表的深度学习方法采用预训练+微调的模式在文本分类任务当中表现突... 从新闻报道中识别企业的风险可以快速定位企业所涉及的风险类别,从而帮助企业及时地做出应对措施。一般而言,新闻舆情风险识别是一种风险标签的多分类任务。以BERT为代表的深度学习方法采用预训练+微调的模式在文本分类任务当中表现突出。然而新闻舆情领域标记数据偏少,构成了小样本的机器学习问题。以提示学习为代表的新范式为小样本分类性能的提升提供了一种新的途径和手段,现有的研究表明该范式在很多任务上优于预训练+微调的方式。受现有研究工作的启发,提出了基于提示学习的新闻舆情风险识别方法,在BERT预训练模型基础之上根据提示学习的思想设计新闻舆情风险提示模板,通过MLM(masked language model)模型训练之后,将预测出来的标签通过答案工程映射到已有的风险标签。实验结果表明在新闻舆情数据集的不同数量小样本上,提示学习的训练方法均优于微调的训练方法。 展开更多
关键词 风险标签 多分类 预训练模型 提示学习
下载PDF
基于深度学习的自然语言处理鲁棒性研究综述 被引量:6
11
作者 桂韬 奚志恒 +5 位作者 郑锐 刘勤 马若恬 伍婷 包容 张奇 《计算机学报》 EI CAS CSCD 北大核心 2024年第1期90-112,共23页
近年来,基于深度神经网络的模型在几乎所有自然语言处理任务上都取得了非常好的效果,在很多任务上甚至超越了人类.展现了极强能力的大规模语言模型也为自然语言处理模型的发展与落地提供了新的机遇和方向.然而,这些在基准测试集合上取... 近年来,基于深度神经网络的模型在几乎所有自然语言处理任务上都取得了非常好的效果,在很多任务上甚至超越了人类.展现了极强能力的大规模语言模型也为自然语言处理模型的发展与落地提供了新的机遇和方向.然而,这些在基准测试集合上取得很好结果的模型在实际应用中的效果却经常大打折扣.近期的一些研究还发现,在测试数据上替换一个相似词语、增加一个标点符号,甚至只是修改一个字母都可能使得这些模型的预测结果发生改变,效果大幅度下降.即使是大型语言模型,也会因输入中的微小扰动而改变其预测结果.什么原因导致了这种现象的发生?深度神经网络模型真的如此脆弱吗?如何才能避免这种问题的出现?这些问题近年来受到了越来越多的关注,诸多有影响力的工作都不约而同地从不同方面讨论了自然语言处理的鲁棒性问题.在本文中,我们从自然语言处理任务的典型范式出发,从数据构建、模型表示、对抗攻防以及评估评价等四个方面对自然语言处理鲁棒性相关研究进行了总结和归纳,并对最新进展进行了介绍,最后探讨了未来的可能研究方向以及我们对自然语言处理鲁棒性问题的一些思考. 展开更多
关键词 自然语言处理 鲁棒性 深度学习 预训练语言模型 对抗攻防
下载PDF
面向借贷案件的相似案例匹配模型 被引量:1
12
作者 曹发鑫 孙媛媛 +2 位作者 王治政 潘丁豪 林鸿飞 《计算机工程》 CSCD 北大核心 2024年第1期306-312,共7页
相似案例匹配任务是文本匹配在司法领域的具体应用之一,目的在于区分法律文书是否相似,对类案检索具有重要意义。与传统文本匹配任务相比,法律文本通常篇幅较长,同时相似案例匹配是针对相同案由案件的匹配,案情文本之间的差异较小,以往... 相似案例匹配任务是文本匹配在司法领域的具体应用之一,目的在于区分法律文书是否相似,对类案检索具有重要意义。与传统文本匹配任务相比,法律文本通常篇幅较长,同时相似案例匹配是针对相同案由案件的匹配,案情文本之间的差异较小,以往的文本匹配方法很难计算文本相似度。针对借贷案件文本匹配存在的问题,建立一种融合借贷案件关键要素的相似案例匹配模型。为了获取文本中更丰富的语义特征,构建正则表达式获得借贷案件的特定案件要素,如借款交付形式、借款人基本属性等,并与原有的案情文本相结合,联合学习法律文本与案件关键要素的语义特征。同时,利用共享权重的预训练模型分别对不同的文书进行编码,并且对预训练模型特定编码层的输出进行融合,得到更加丰富的语义信息。引入有监督对比学习框架,更好地利用样本信息,进一步提高相似案例匹配的性能。在CAIL2019-SCM数据集上的实验结果表明,与LFESM模型相比,该模型在测试集上的准确率提高了1.05个百分点。 展开更多
关键词 相似案例匹配 孪生网络 对比学习 预训练模型 法律关键要素
下载PDF
多模态知识图谱融合技术研究综述 被引量:1
13
作者 陈囿任 李勇 +1 位作者 温明 孙驰 《计算机工程与应用》 CSCD 北大核心 2024年第13期36-50,共15页
多模态知识图谱融合了视觉、文本等多种模态信息,并以图的形式展现知识结构。随着人工智能的发展,多模态知识图谱在推荐系统、智能问答和知识搜索等领域发挥了重要作用。与传统知识图谱相比,多模态知识图谱可以多维度理解和展现知识,有... 多模态知识图谱融合了视觉、文本等多种模态信息,并以图的形式展现知识结构。随着人工智能的发展,多模态知识图谱在推荐系统、智能问答和知识搜索等领域发挥了重要作用。与传统知识图谱相比,多模态知识图谱可以多维度理解和展现知识,有更好的表示和应用能力。为了深入研究多模态知识图谱,对多模态知识图谱价值及类别进行了详细的分析与阐述,根据多模态知识图谱构建中融合方法的不同,从多源异构数据文本转换、表示学习、实体对齐、特征抽取方面进行对比和总结,重点对跨模态知识图谱融合技术分类叙述。对多模态知识图谱的应用进展进行了分析,并探讨了多模态知识图谱的局限性,提出了多模态知识图谱领域今后的研究方向。 展开更多
关键词 多模态知识图谱 语言模型 融合技术 预训练技术
下载PDF
生成式人工智能在医院管理领域的应用前景与挑战探讨
14
作者 方明旺 郭玲 +8 位作者 黄应德 苑伟 高芸艺 周益 赵一洋 帅冰星 陈相军 张伟义 李大江 《医学信息学杂志》 CAS 2024年第10期18-21,共4页
目的/意义探讨以ChatGPT为代表的生成式人工智能在医院管理领域的重点应用场景和未来发展方向,为人工智能自然语言处理技术应用于我国医院管理领域提供参考。方法/过程通过文献调研梳理生成式人工智能快速发展给医院管理领域带来的变革... 目的/意义探讨以ChatGPT为代表的生成式人工智能在医院管理领域的重点应用场景和未来发展方向,为人工智能自然语言处理技术应用于我国医院管理领域提供参考。方法/过程通过文献调研梳理生成式人工智能快速发展给医院管理领域带来的变革和挑战,分析其在医院管理领域的重点应用场景和未来发展方向。结果/结论人工智能在医院管理领域具有广阔应用前景,应重点探索其实际应用场景和战略方向,为推动公立医院高质量发展提供借鉴和参考。 展开更多
关键词 ChatGPT 人工智能 生成式预训练模型 医院管理
下载PDF
基于预训练模型自适应匹配的视觉故事生成算法
15
作者 宁铭 江爱文 +2 位作者 崔朝阳 刘长红 王明文 《中文信息学报》 CSCD 北大核心 2024年第5期155-166,共12页
视觉故事生成任务是为一组图像序列生成具有表现力和连贯性的、能准确描述所涉及视觉内容的语句段落,是当前计算机视觉和自然语言处理交叉领域中一个有趣而又快速发展的多模态研究方向。随着预训练模型在各种下游任务的成功,基于预训练... 视觉故事生成任务是为一组图像序列生成具有表现力和连贯性的、能准确描述所涉及视觉内容的语句段落,是当前计算机视觉和自然语言处理交叉领域中一个有趣而又快速发展的多模态研究方向。随着预训练模型在各种下游任务的成功,基于预训练模型的视觉故事生成算法也被广泛研究。但因为数据模态的差异和语义鸿沟的存在,预训练模型在微调学习过程中会产生灾难性遗忘问题。如何协调视觉和语言两种模态数据的预训练模型,是当前多模态预训练模型研究的主要目标之一。该文提出基于预训练模型自适应匹配的视觉故事生成算法,一方面综合挖掘图像流的视觉、关系、序列等多样化互补信息,弥补语义差异;同时,另一方面用适应性损失对图文两种模态数据进行特征对齐,以及对图像流数据进行连续信息对齐,取得了较好的效果。算法在目前已公开的视觉故事生成数据集(VIST)上与近年的先进算法进行实验比较。评测结果表明,该文算法在生成故事的图文相关性、文本多样性、内容逻辑连贯性等指标上取得了具有竞争力的结果。 展开更多
关键词 视觉故事 适应匹配损失 预训练模型 多模态特征 图像序列
下载PDF
基于主题感知和语义增强的作文自动评分方法
16
作者 陈宇航 杨勇 +4 位作者 先木斯亚·买买提明 帕力旦·吐尔逊 樊小超 任鸽 刁宇峰 《计算机工程》 CAS CSCD 北大核心 2024年第8期363-371,共9页
作文自动评分(AES)是教育领域中应用自然语言处理(NLP)技术的重要研究方向之一,其旨在提高评分效率,增强评价的客观性和可靠性。针对主题相关性缺失和长文本信息丢失问题以及预训练语言模型BERT不同层次能够提取不同维度特征的特点,提... 作文自动评分(AES)是教育领域中应用自然语言处理(NLP)技术的重要研究方向之一,其旨在提高评分效率,增强评价的客观性和可靠性。针对主题相关性缺失和长文本信息丢失问题以及预训练语言模型BERT不同层次能够提取不同维度特征的特点,提出一种基于主题感知和语义增强的作文自动评分模型。该模型采用多头注意力机制提取作文的浅层语义特征并感知作文主题特征,同时利用BERT的中间层句法特征和深层语义特征增强对作文语义的理解。在此基础上,融合不同维度的特征并用于作文自动评分。实验结果表明,该模型在公共数据集ASAP的8个子集上均表现出了显著的性能优势,相比于通义千问等基线模型,其能够有效提升作文自动评分性能,平均二次加权的卡帕值(QWK)达到80.25%。 展开更多
关键词 作文自动评分 语义增强 主题感知 特征融合 预训练语言模型
下载PDF
面向多模态情感分析的低秩跨模态Transformer
17
作者 孙杰 车文刚 高盛祥 《计算机工程与科学》 CSCD 北大核心 2024年第10期1888-1900,共13页
多模态情感分析将基于文本的方法扩展到包含视觉和语音信号的多模态环境,已成为情感计算领域的热门研究方向。在预训练-微调的背景下,将预训练语言模型微调到多模态情感分析领域是必要的。然而,微调大规模预训练语言模型仍然很昂贵,而... 多模态情感分析将基于文本的方法扩展到包含视觉和语音信号的多模态环境,已成为情感计算领域的热门研究方向。在预训练-微调的背景下,将预训练语言模型微调到多模态情感分析领域是必要的。然而,微调大规模预训练语言模型仍然很昂贵,而且跨模态交互不足会影响性能。因此,提出低秩跨模态Transformer(LRCMT)来解决这些问题。受大型预训练语言模型在适应不同的自然语言处理下游任务时所呈现的低秩参数更新现象启发,LRCMT在每个冻结层中注入可训练的低秩参数矩阵,这大大减少了可训练参数,同时允许动态单词表示。此外,设计了跨模态交互模块,其中视觉和语音模态在与文本模态交互之前首先相互交互,从而实现更充分的跨模态融合。在多模态情感分析基准数据集上的大量实验表明了LRCMT的有效性和高效性。仅微调约全参数量0.76%的参数,LRCMT实现了与完全微调相当或更高的性能。此外,它还在许多指标上获得了最先进或具有竞争力的结果。消融实验表明,低秩微调与充分的跨模态交互有助于提升LRCMT的性能。总之,本文的工作降低了预训练语言模型在多模态任务上的微调成本,并为高效和有效的跨模态融合提供了思路。 展开更多
关键词 多模态 情感分析 预训练语言模型 跨模态Transformer
下载PDF
基于预训练模型的单帧航拍图像无监督语义分割 被引量:1
18
作者 任月冬 游新冬 +1 位作者 滕尚志 吕学强 《北京信息科技大学学报(自然科学版)》 2024年第2期21-28,共8页
针对航拍图像语义分割成本高、通用性差和精度低等问题,提出了一种两阶段无监督语义分割网络(two-stage unsupervised semantic segmentation net, TUSSNet),针对单帧航拍图像训练进而生成最终的语义分割结果。算法分为2个阶段。首先,... 针对航拍图像语义分割成本高、通用性差和精度低等问题,提出了一种两阶段无监督语义分割网络(two-stage unsupervised semantic segmentation net, TUSSNet),针对单帧航拍图像训练进而生成最终的语义分割结果。算法分为2个阶段。首先,使用对比语言-图像预训练(contrastive language-image pretraining, CLIP)模型生成航拍图像的粗粒度语义标签,然后进行网络的预热训练。其次,在第一阶段的基础上,采用分割一切模型(segment anything model, SAM)对航拍图像进行细粒度类别预测,生成精细化类别掩码伪标签;然后迭代优化网络,得到最终语义分割结果。实验结果显示,相较于现有无监督语义分割方法,算法显著提高了航拍图像的分割精度,同时提供了准确的语义信息。 展开更多
关键词 预训练模型 航拍图像 语义分割 无监督算法 聚类效果估计 深度学习
下载PDF
动态查询窗口引导的回复关系发现方法 被引量:1
19
作者 张竞文 崔诗尧 +2 位作者 张兴华 苏涛宇 柳厅文 《集成技术》 2024年第5期53-63,共11页
在多方会话中,判断消息之间的回复关系是对话领域的一项重要任务。现有的相关工作还未关注、解决以下两个数据分布方面的问题:长度较短的消息往往出现的频率更高,而短文本包含的语义信息较少,限制了模型的学习能力;存在回复关系的正样... 在多方会话中,判断消息之间的回复关系是对话领域的一项重要任务。现有的相关工作还未关注、解决以下两个数据分布方面的问题:长度较短的消息往往出现的频率更高,而短文本包含的语义信息较少,限制了模型的学习能力;存在回复关系的正样本数量往往远少于负样本数量,导致模型在训练过程中容易出现数据偏斜问题,降低了模型处理正样本的性能。针对上述两个问题,作者提出一个基于预训练语言模型的改进模型,首先通过动态查询窗口建模缓解短文本相关问题;然后通过位置驱动的正样本权重优化缓解正样本相关问题。与前人研究工作进行比对,实验结果表明,与基于预训练语言模型的基线模型相比,改进模型将召回率平均提升了15.7%。此外,还构建了一个采集自Telegram平台的新数据集,可为后续相关研究提供数据支持。 展开更多
关键词 多方对话 回复关系发现 查询窗口 数据分布 预训练语言模型
下载PDF
基于RBAC模型的中文医疗命名实体识别
20
作者 张斌 赵婷婷 +2 位作者 张碧霞 陈亚瑞 王嫄 《天津科技大学学报》 CAS 2024年第5期56-62,共7页
中文医疗命名实体识别旨在从非结构化数据中抽取结构化实体,目前的主流研究都使用了大量的训练数据。针对中文医疗命名实体识别训练数据匮乏的问题,提出了基于联合分词的RBAC(RoBERTa-BiGRU-Attention-CRF)模型和基于语义搜索的命名实... 中文医疗命名实体识别旨在从非结构化数据中抽取结构化实体,目前的主流研究都使用了大量的训练数据。针对中文医疗命名实体识别训练数据匮乏的问题,提出了基于联合分词的RBAC(RoBERTa-BiGRU-Attention-CRF)模型和基于语义搜索的命名实体识别数据增强方法。首先利用预训练模型和双向门控循环单元(BiGRU)提取文本的深度双向语义表示,再将该语义表示分别送入分词模块和命名实体识别模块。分词模块利用条件随机场(CRF)得到分词信息。命名实体识别模块利用BiGRU与多头注意力得到混合语义表示,再送入CRF得到命名实体识别的标签序列。在CCKS2019中文电子病历数据集上的实验结果表明,该方法在数据量较少的情况下F_(1)达到90.5%,证明了该方法的有效性。 展开更多
关键词 多任务学习 预训练模型 双向门控循环单元 多头注意力 条件随机场 数据增强
下载PDF
上一页 1 2 7 下一页 到第
使用帮助 返回顶部