期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
Classification of Conversational Sentences Using an Ensemble Pre-Trained Language Model with the Fine-Tuned Parameter
1
作者 R.Sujatha K.Nimala 《Computers, Materials & Continua》 SCIE EI 2024年第2期1669-1686,共18页
Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requir... Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requires more syntactic elements.Most existing strategies focus on the general semantics of a conversation without involving the context of the sentence,recognizing the progress and comparing impacts.An ensemble pre-trained language model was taken up here to classify the conversation sentences from the conversation corpus.The conversational sentences are classified into four categories:information,question,directive,and commission.These classification label sequences are for analyzing the conversation progress and predicting the pecking order of the conversation.Ensemble of Bidirectional Encoder for Representation of Transformer(BERT),Robustly Optimized BERT pretraining Approach(RoBERTa),Generative Pre-Trained Transformer(GPT),DistilBERT and Generalized Autoregressive Pretraining for Language Understanding(XLNet)models are trained on conversation corpus with hyperparameters.Hyperparameter tuning approach is carried out for better performance on sentence classification.This Ensemble of Pre-trained Language Models with a Hyperparameter Tuning(EPLM-HT)system is trained on an annotated conversation dataset.The proposed approach outperformed compared to the base BERT,GPT,DistilBERT and XLNet transformer models.The proposed ensemble model with the fine-tuned parameters achieved an F1_score of 0.88. 展开更多
关键词 Bidirectional encoder for representation of transformer conversation ensemble model fine-tuning generalized autoregressive pretraining for language understanding generative pre-trained transformer hyperparameter tuning natural language processing robustly optimized BERT pretraining approach sentence classification transformer models
下载PDF
基于Transformer的预训练语言模型在生物医学领域的应用
2
作者 游至宇 阳倩 +2 位作者 傅姿晴 陈庆超 李奇渊 《厦门大学学报(自然科学版)》 CAS CSCD 北大核心 2024年第5期883-893,共11页
[背景]随着人工智能技术的快速发展,自然语言处理(NLP)已成为生物医学研究领域中的一项关键技术.而基于Transformer框架的预训练语言模型(T-PLMs)已被广泛应用于生物医学文本的分析,有效地推动了临床决策支持系统的发展和基因组学数据... [背景]随着人工智能技术的快速发展,自然语言处理(NLP)已成为生物医学研究领域中的一项关键技术.而基于Transformer框架的预训练语言模型(T-PLMs)已被广泛应用于生物医学文本的分析,有效地推动了临床决策支持系统的发展和基因组学数据的解读.[进展]本文聚焦于T-PLMs在生物医学领域的应用,探讨其在处理和理解生物医学文本数据方面的潜力和挑战.首先回顾NLP技术的演进,从传统的特征工程到预训练语言模型的兴起,特别是BERT等模型如何改变生物医学文本分析的范式;随后详细介绍T-PLMs的训练范式,包括预训练和微调过程,以及如何通过特定领域的预训练和Prompt工程来提升模型在生物医学任务中的性能;进而深入探讨T-PLMs在生物医学领域的多样化应用,包括文本表示和知识挖掘、临床决策支持、医学影像理解、蛋白质预测、分子表示和药物设计等,并特别归纳收集了上述多个生物医学细分领域相关的数据库资料.[展望]当前研究和应用中仍面临许多挑战,如模型可解释性、数据隐私保护、多模态数据等.基于此对未来的研究方向提出展望,以充分发挥NLP在推动生物医学研究和改善患者护理方面的潜力. 展开更多
关键词 自然语言处理 生物医学应用 预训练语言模型 多模态学习 医疗文本挖掘
下载PDF
基于实体信息和图神经网络的药物相互作用关系抽取 被引量:2
3
作者 杨霞 韩春燕 琚生根 《四川大学学报(自然科学版)》 CAS CSCD 北大核心 2022年第2期42-50,共9页
药物相互作用是指药物与药物之间相互促进或抑制.针对现有的药物关系抽取方法利用外部背景知识和自然语言处理工具导致错误传播和积累的问题,以及现有大多数研究在数据预处理阶段对药物实体进行盲化,忽略了有助于识别关系类别的目标药... 药物相互作用是指药物与药物之间相互促进或抑制.针对现有的药物关系抽取方法利用外部背景知识和自然语言处理工具导致错误传播和积累的问题,以及现有大多数研究在数据预处理阶段对药物实体进行盲化,忽略了有助于识别关系类别的目标药物实体信息的问题.论文提出了基于预训练生物医学语言模型和词汇图神经网络的药物相互作用关系抽取模型,该模型通过预训练语言模型获得句子的原始特征表示,在基于数据集构建的词汇图上进行卷积操作获得与句子相关的全局特征信息表示,最后与药物目标实体对特征进行拼接从而构建药物相互作用关系提取任务的特征表示,在获得丰富的全局特征信息的同时避免了使用自然语言处理工具和外部背景知识,提升模型的准确率.论文的模型在DDIExtraction 2013数据集上的F;值达到了83.25%,优于目前最新方法2.35%. 展开更多
关键词 药物-药物相互作用关系抽取 预训练生物医学语言模型 目标药物实体对 图神经网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部