期刊文献+
共找到471篇文章
< 1 2 24 >
每页显示 20 50 100
Classification of Conversational Sentences Using an Ensemble Pre-Trained Language Model with the Fine-Tuned Parameter
1
作者 R.Sujatha K.Nimala 《Computers, Materials & Continua》 SCIE EI 2024年第2期1669-1686,共18页
Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requir... Sentence classification is the process of categorizing a sentence based on the context of the sentence.Sentence categorization requires more semantic highlights than other tasks,such as dependence parsing,which requires more syntactic elements.Most existing strategies focus on the general semantics of a conversation without involving the context of the sentence,recognizing the progress and comparing impacts.An ensemble pre-trained language model was taken up here to classify the conversation sentences from the conversation corpus.The conversational sentences are classified into four categories:information,question,directive,and commission.These classification label sequences are for analyzing the conversation progress and predicting the pecking order of the conversation.Ensemble of Bidirectional Encoder for Representation of Transformer(BERT),Robustly Optimized BERT pretraining Approach(RoBERTa),Generative Pre-Trained Transformer(GPT),DistilBERT and Generalized Autoregressive Pretraining for Language Understanding(XLNet)models are trained on conversation corpus with hyperparameters.Hyperparameter tuning approach is carried out for better performance on sentence classification.This Ensemble of Pre-trained Language Models with a Hyperparameter Tuning(EPLM-HT)system is trained on an annotated conversation dataset.The proposed approach outperformed compared to the base BERT,GPT,DistilBERT and XLNet transformer models.The proposed ensemble model with the fine-tuned parameters achieved an F1_score of 0.88. 展开更多
关键词 Bidirectional encoder for representation of transformer conversation ensemble model fine-tuning generalized autoregressive pretraining for language understanding generative pre-trained transformer hyperparameter tuning natural language processing robustly optimized BERT pretraining approach sentence classification transformer models
下载PDF
Comparing Fine-Tuning, Zero and Few-Shot Strategies with Large Language Models in Hate Speech Detection in English
2
作者 Ronghao Pan JoséAntonio García-Díaz Rafael Valencia-García 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第9期2849-2868,共20页
Large Language Models(LLMs)are increasingly demonstrating their ability to understand natural language and solve complex tasks,especially through text generation.One of the relevant capabilities is contextual learning... Large Language Models(LLMs)are increasingly demonstrating their ability to understand natural language and solve complex tasks,especially through text generation.One of the relevant capabilities is contextual learning,which involves the ability to receive instructions in natural language or task demonstrations to generate expected outputs for test instances without the need for additional training or gradient updates.In recent years,the popularity of social networking has provided a medium through which some users can engage in offensive and harmful online behavior.In this study,we investigate the ability of different LLMs,ranging from zero-shot and few-shot learning to fine-tuning.Our experiments show that LLMs can identify sexist and hateful online texts using zero-shot and few-shot approaches through information retrieval.Furthermore,it is found that the encoder-decoder model called Zephyr achieves the best results with the fine-tuning approach,scoring 86.811%on the Explainable Detection of Online Sexism(EDOS)test-set and 57.453%on the Multilingual Detection of Hate Speech Against Immigrants and Women in Twitter(HatEval)test-set.Finally,it is confirmed that the evaluated models perform well in hate text detection,as they beat the best result in the HatEval task leaderboard.The error analysis shows that contextual learning had difficulty distinguishing between types of hate speech and figurative language.However,the fine-tuned approach tends to produce many false positives. 展开更多
关键词 Hate speech detection zero-shot few-shot fine-tuning natural language processing
下载PDF
Optimizing Enterprise Conversational AI: Accelerating Response Accuracy with Custom Dataset Fine-Tuning
3
作者 Yash Kishore 《Intelligent Information Management》 2024年第2期65-76,共12页
As the realm of enterprise-level conversational AI continues to evolve, it becomes evident that while generalized Large Language Models (LLMs) like GPT-3.5 bring remarkable capabilities, they also bring forth formidab... As the realm of enterprise-level conversational AI continues to evolve, it becomes evident that while generalized Large Language Models (LLMs) like GPT-3.5 bring remarkable capabilities, they also bring forth formidable challenges. These models, honed on vast and diverse datasets, have undoubtedly pushed the boundaries of natural language understanding and generation. However, they often stumble when faced with the intricate demands of nuanced enterprise applications. This research advocates for a strategic paradigm shift, urging enterprises to embrace a fine-tuning approach as a means to optimize conversational AI. While generalized LLMs are linguistic marvels, their inability to cater to the specific needs of businesses across various industries poses a critical challenge. This strategic shift involves empowering enterprises to seamlessly integrate their own datasets into LLMs, a process that extends beyond linguistic enhancement. The core concept of this approach centers on customization, enabling businesses to fine-tune the AI’s functionality to fit precisely within their unique business landscapes. By immersing the LLM in industry-specific documents, customer interaction records, internal reports, and regulatory guidelines, the AI transcends its generic capabilities to become a sophisticated conversational partner aligned with the intricacies of the enterprise’s domain. The transformative potential of this fine-tuning approach cannot be overstated. It enables a transition from a universal AI solution to a highly customizable tool. The AI evolves from being a linguistic powerhouse to a contextually aware, industry-savvy assistant. As a result, it not only responds with linguistic accuracy but also with depth, relevance, and resonance, significantly elevating user experiences and operational efficiency. In the subsequent sections, this paper delves into the intricacies of fine-tuning, exploring the multifaceted challenges and abundant opportunities it presents. It addresses the technical intricacies of data integration, ethical considerations surrounding data usage, and the broader implications for the future of enterprise AI. The journey embarked upon in this research holds the potential to redefine the role of conversational AI in enterprises, ushering in an era where AI becomes a dynamic, deeply relevant, and highly effective tool, empowering businesses to excel in an ever-evolving digital landscape. 展开更多
关键词 fine-tuning DATASET AI CONVERSATIONAL ENTERPRISE LLM
下载PDF
深度卷积神经网络嵌套fine-tune的图像美感品质评价 被引量:3
4
作者 李雨鑫 普园媛 +2 位作者 徐丹 钱文华 刘和娟 《山东大学学报(工学版)》 CAS 北大核心 2018年第3期60-66,共7页
针对使用卷积神经网络对图像美感品质研究中图像数据库过小的问题,使用fine-tune的迁移学习方法,分析卷积神经网络结构和图像内容对图像美感品质评价的影响。在按图像内容进行美感品质评价研究时,针对图像数据再次减小的问题,提出连续两... 针对使用卷积神经网络对图像美感品质研究中图像数据库过小的问题,使用fine-tune的迁移学习方法,分析卷积神经网络结构和图像内容对图像美感品质评价的影响。在按图像内容进行美感品质评价研究时,针对图像数据再次减小的问题,提出连续两次fine-tune的嵌套fine-tune方法,并在数据库Photo Quality上进行试验。试验结果表明,嵌套fine-tune方法得到的美感品质评价正确率比传统提取人工设计特征方法平均高出5.36%,比两种深度学习方法分别平均高出3.35%和2.33%,有效解决了卷积神经网络在图像美感品质研究中因图像数据库过小而带来的训练问题。 展开更多
关键词 图像美感品质评价 图像内容 CNN 迁移学习 嵌套fine-tune
原文传递
Toward fine-tuned metabolic networks in industrial microorganisms 被引量:1
5
作者 Ning Li Weizhu Zeng +1 位作者 Sha Xu Jingwen Zhou 《Synthetic and Systems Biotechnology》 SCIE 2020年第2期81-91,共11页
There are numerous microorganisms in nature capable of synthesizing diverse useful compounds;however,these natural microorganisms are generally inefficient in the production of target products on an industrial scale,r... There are numerous microorganisms in nature capable of synthesizing diverse useful compounds;however,these natural microorganisms are generally inefficient in the production of target products on an industrial scale,relative to either chemical synthesis or extraction methods.To achieve industrial production of useful compounds,these natural microorganisms must undergo a certain degree of mutation or effective fine-tuning strategies.This review describes how to achieve an ideal metabolic fine-tuned process,including static control strategies and dynamic control strategies.The static control strategies mainly focus on various matabolic engineering strategies,including protein engineering,upregulation/downregulation,and combinatrorial control of these metabolic engineering strategies,to enhance the flexibility of their application in fine-tuned metabolic metworks.Then,we focus on the dynamic control strategies for fine-tuned metabolic metworks.The design principles derived would guide us to construct microbial cell factories for various useful compounds. 展开更多
关键词 fine-tuned regulation Protein engineering UPREGULATION DOWNREGULATION Dynamic regulation
原文传递
基于微调原型网络的小样本敏感信息识别方法 被引量:1
6
作者 余正涛 关昕 +2 位作者 黄于欣 张思琦 赵庆珏 《中文信息学报》 CSCD 北大核心 2024年第1期115-123,共9页
敏感信息识别主要是指识别互联网上涉及色情、毒品、邪教、暴力等类型的敏感信息,现有的敏感信息识别通常将其看作文本分类任务,但由于缺乏大规模的敏感信息标注数据,分类效果不佳。该文提出一种基于微调原型网络的小样本敏感信息识别方... 敏感信息识别主要是指识别互联网上涉及色情、毒品、邪教、暴力等类型的敏感信息,现有的敏感信息识别通常将其看作文本分类任务,但由于缺乏大规模的敏感信息标注数据,分类效果不佳。该文提出一种基于微调原型网络的小样本敏感信息识别方法,在小样本学习框架下,利用快速适应的微调原型网络来缓解元训练阶段通用新闻领域和元测试阶段敏感信息数据差异大的问题。首先,在元训练阶段,基于通用新闻领域的分类数据训练模型来学习通用知识,同时在训练过程中经过两阶段梯度更新,得到一组对新任务敏感的快速适应初始参数,然后在元测试阶段敏感文本数据集的新任务上,冻结模型部分参数并使用支持集进一步微调,使模型更好地泛化到敏感识别领域上。实验结果证明,相比当前最优的小样本分类模型,该文提出的快速适应微调策略的原型网络显著提升了敏感信息识别效果。 展开更多
关键词 敏感信息识别 小样本学习 微调策略 原型网络
下载PDF
自动飞行员复诵指令生成方法研究
7
作者 潘卫军 蒋培元 +2 位作者 李煜琨 王腾 陈宽明 《科学技术与工程》 北大核心 2024年第4期1588-1596,共9页
为了提高效率,降低培训成本并推广使用计算机来取代管制模拟机中的飞行员席位,采用集成学习的策略来生成飞行员复诵指令。选用5个大规模预训练语言模型进行微调,并使用K折交叉验证来筛选出性能较好的4个模型作为基础模型来构建集成学习... 为了提高效率,降低培训成本并推广使用计算机来取代管制模拟机中的飞行员席位,采用集成学习的策略来生成飞行员复诵指令。选用5个大规模预训练语言模型进行微调,并使用K折交叉验证来筛选出性能较好的4个模型作为基础模型来构建集成学习模型。所构建的集成学习模型在管制指令数据集上取得在本领域中的最优效果。在通用的ROUGE(recall-oriented understudy for gisting evaluation)评价标准中,取得R_(OUGE-1)=0.998,R_(OUGE-2)=0.995,R_(OUGE-L)=0.998的最新效果。其中,R_(OUGE-1)关注参考文本与生成文本之间单个单词的匹配度,R_(OUGE-2)则关注两个连续单词的匹配度,R_(OUGE-L)则关注最长公共子序列的匹配度。为了克服通用指标在本领域的局限性,更准确地评估模型性能,针对生成的复诵指令提出一套基于关键词的评价标准。该评价指标准基于管制文本分词后的结果计算各个关键词指标来评估模型的效果。在基于关键词的评价标准下,所构建模型取得整体准确率为0.987的最优效果,对航空器呼号的复诵准确率达到0.998。 展开更多
关键词 微调策略 文本生成 管制员培训 集成学习 自动飞行员
下载PDF
以对比学习与时序递推提升摘要泛化性的方法
8
作者 汤文亮 陈帝佑 +2 位作者 桂玉杰 刘杰明 徐军亮 《重庆理工大学学报(自然科学)》 CAS 北大核心 2024年第2期170-180,共11页
为了有效缓解基于交叉熵损失函数训练的传统文本摘要模型所面临的推理过程中性能下降、泛化性较低、生成过程中曝光偏差现象严重、生成的摘要与参考摘要文本相似度较低等问题,提出了一种新颖的训练方式,一方面,模型本身以beamsearch的... 为了有效缓解基于交叉熵损失函数训练的传统文本摘要模型所面临的推理过程中性能下降、泛化性较低、生成过程中曝光偏差现象严重、生成的摘要与参考摘要文本相似度较低等问题,提出了一种新颖的训练方式,一方面,模型本身以beamsearch的方式生成候选集,以候选摘要的评估分数选取正负样本,在输出的候选集中以“argmax-贪心搜索概率值”和“标签概率值”构建2组对比损失函数;另一方面,设计作用于候选集句内的时序递推函数引导模型在输出每个单独的候选摘要时确保时序准确性,并缓解曝光偏差问题。实验表明,所提方法在CNN/DailyMail和Xsum公共数据集上的泛化性得到提升,Rouge与BertScore在CNN/DailyMail上达到47.54和88.51,在Xsum上达到了48.75和92.61。 展开更多
关键词 自然语言处理 文本摘要 对比学习 模型微调
下载PDF
基于模型微调的空中无人机小样本目标识别方法
9
作者 黄灿 《计算机测量与控制》 2024年第1期268-274,共7页
空中无人机目标识别是现代军事、航空领域的迫切需求,由于目前无人机的功能和种类繁多,对于新机型很难采集大量的无人机样本用于训练目标识别模型;针对该问题,提出了一种基于模型微调的空中无人机小样本目标识别方法;方法以Faster R-CN... 空中无人机目标识别是现代军事、航空领域的迫切需求,由于目前无人机的功能和种类繁多,对于新机型很难采集大量的无人机样本用于训练目标识别模型;针对该问题,提出了一种基于模型微调的空中无人机小样本目标识别方法;方法以Faster R-CNN为基础架构,首先采用具有大量标记样本的常见机型数据预训练Faster R-CNN模型;然后将基础架构最后的分类层替换为余弦度量,构建联合新机型与常见机型的小样本平衡数据集以较小的学习率微调分类层;实验结果表明,在标记样本数量为5、10和50的情况下,基于模型微调的小样本目标识别模型的mAP分别为88.6%,89.2%和90.8%,能够满足空中无人机小样本目标识别任务需求,且优于其它小样本目标识别方法。 展开更多
关键词 无人机 目标识别 Faster R-CNN 小样本学习 模型微调
下载PDF
迁移学习在机械设备故障诊断领域的进展研究
10
作者 陈驻民 韦继程 《机械管理开发》 2024年第3期96-99,共4页
迁移学习是一种新兴的机器学习方法,通过运用已学习的知识对不同但相关领域问题进行求解,能够较为有效的解决模型泛化能力弱、样本数据不足等问题。针对迁移学习在机械设备故障诊断领域的应用方法进行了综述,总结了三类关于迁移学习的... 迁移学习是一种新兴的机器学习方法,通过运用已学习的知识对不同但相关领域问题进行求解,能够较为有效的解决模型泛化能力弱、样本数据不足等问题。针对迁移学习在机械设备故障诊断领域的应用方法进行了综述,总结了三类关于迁移学习的诊断预测方法,并对迁移学习在故障诊断领域的未来研究方向进行了探讨。 展开更多
关键词 迁移学习 故障诊断 参数微调 特征对齐 生成对抗网络
下载PDF
波长可调的量子点纠缠光源(特邀)
11
作者 陈晨 刘峰 《光子学报》 EI CAS CSCD 北大核心 2024年第5期99-112,共14页
可按需产生纠缠光子对的量子光源是光量子网络中的重要组成部分。半导体量子点可确定性地产生高纠缠保真度的光子对。基于量子点构建量子网络所需的量子中继单元时,需要多个发光波长一致的高质量纠缠光源。然而量子点形貌、组分和应力... 可按需产生纠缠光子对的量子光源是光量子网络中的重要组成部分。半导体量子点可确定性地产生高纠缠保真度的光子对。基于量子点构建量子网络所需的量子中继单元时,需要多个发光波长一致的高质量纠缠光源。然而量子点形貌、组分和应力的不均一性严重限制了基于量子点的量子中继器的可扩展性。国内外研究团队发展了多种量子点生长后调节技术,成功调节量子点精细结构劈裂并通过联合多个调节自由度实现多维度的调节。本文综述了目前联合多个调节自由度实现发光波长和精细结构劈裂均能调控的实验方案,总结了不同方案的调节方法和研究现状,并介绍了将量子点与光学微腔相结合通过Purcell效应能进一步提升纠缠光源的性能。最后,对该领域的未来发展进行展望。 展开更多
关键词 自组装量子点 纠缠光源 精细结构劈裂 联合调控 光学微腔
下载PDF
基于样本增量学习的遥感影像分类
12
作者 李雪 姚光乐 +3 位作者 王洪辉 李军 周皓然 叶绍泽 《计算机应用》 CSCD 北大核心 2024年第3期732-736,共5页
深度学习模型在遥感影像分类中取得了显著的成绩。随着新的遥感数据不断被采集,基于深度学习的遥感影像分类模型在训练新数据、学习新知识时,对旧数据的识别性能会下降,即旧知识遗忘。为帮助遥感影像分类模型巩固旧知识和学习新知识,提... 深度学习模型在遥感影像分类中取得了显著的成绩。随着新的遥感数据不断被采集,基于深度学习的遥感影像分类模型在训练新数据、学习新知识时,对旧数据的识别性能会下降,即旧知识遗忘。为帮助遥感影像分类模型巩固旧知识和学习新知识,提出一种基于样本增量学习的遥感影像分类模型——增量协同学习知识模型(ICLKM)。该模型由两个知识网络组成,第一个网络通过知识蒸馏保留旧模型的输出,缓解知识遗忘问题;第二个网络将新数据的输出作为第一个网络的学习目标,通过维护双网络模型的一致性有效地学习新知识。最后两个网络共同学习,通过知识协同策略生成更精确的模型。在两个遥感数据集NWPU-RESISC45和AID上的实验结果表明,相较于微调训练(FT)方法,ICLKM的准确率分别提升了3.53和6.70个百分点。可见ICLKM能够有效解决遥感影像分类的知识遗忘问题,不断提高对已知遥感影像的识别准确率。 展开更多
关键词 遥感影像分类 增量学习 知识蒸馏 协同学习 微调
下载PDF
油气大模型发展方向及实施关键路径
13
作者 熊华平 赵春宇 刘万伟 《大庆石油地质与开发》 CAS 北大核心 2024年第3期214-224,共11页
大庆油田历经60余年的勘探开发,面临着理论创新、技术突破和现场实施等诸多挑战。在这个过程中,传统的数学模型在处理复杂的地质数据和工程数据时已接近瓶颈,需要探索新的研究范式。近年来,大模型特别是多模态生成式大模型作为一种基于... 大庆油田历经60余年的勘探开发,面临着理论创新、技术突破和现场实施等诸多挑战。在这个过程中,传统的数学模型在处理复杂的地质数据和工程数据时已接近瓶颈,需要探索新的研究范式。近年来,大模型特别是多模态生成式大模型作为一种基于大数据、大模型的智能化技术,能够处理大规模、异源、异构的数据,有望更好地应对油气勘探开发领域中的复杂性和不确定性,重塑油气领域的数字化流程,成为油气行业新的发展契机。从油气大模型产生的技术需求、时代背景出发,探索油气大模型技术体系,对油气大模型建设提出设想。具体方案从建设目标、建设原则开始,设计技术架构、给出实施路径,横向上规划4个实施阶段、纵向上规划4个研究领域,设计15项关键任务,进一步为大模型落地,规划了数据库、知识库、成果库和协同研究4项配套体系建设、制定13项关键技术,逐步推进大模型对“数”“图”“体”的理解,最后对大模型在未来油气研究领域的应用场景进行了展望。 展开更多
关键词 油气大模型 多模态 生成式预训练模型 垂直领域模型 指令微调
下载PDF
基于“肾主生殖”理论探讨少弱精子症的病机及龟鹿育麟汤组方思路
14
作者 黄念文 李海松 +4 位作者 王彬 王继升 冯隽龙 孙龙吉 党进 《天津中医药大学学报》 CAS 2024年第3期285-288,共4页
少弱精子症是导致男性不育的主要原因,目前临床上治疗少弱精子症多以经验性药物为主。中医治疗少弱精子症经验丰富,中医药在改善男性生殖功能方面效果显著,是临床上治疗本病的重要手段之一。北京中医药大学东直门医院男科团队基于“肾... 少弱精子症是导致男性不育的主要原因,目前临床上治疗少弱精子症多以经验性药物为主。中医治疗少弱精子症经验丰富,中医药在改善男性生殖功能方面效果显著,是临床上治疗本病的重要手段之一。北京中医药大学东直门医院男科团队基于“肾主生殖”理论,结合现代相关研究,在传统补肾治疗的基础上,创新性提出“以肾精亏虚为本,补肾益精为法,微调阴阳为则”的理念治疗少弱精子症。龟鹿育麟汤是基于这一理念而创立治疗少弱精子症的协定方,为经典方剂龟鹿二仙胶和五子衍宗丸的组合化裁而成,具有补肾益精、温阳不燥、滋阴不寒、微调阴阳等特点,并取得了良好的临床疗效,以期为中医药治疗少弱精子症提供更为直观的参考。 展开更多
关键词 少弱精子症 肾主生殖 补肾益精 微调阴阳 龟鹿育麟汤
下载PDF
深度神经网络修复策略综述
15
作者 梁震 刘万伟 +3 位作者 吴陶然 薛白 王戟 杨文婧 《软件学报》 EI CSCD 北大核心 2024年第3期1231-1256,共26页
随着智能信息时代的发展,深度神经网络在人类社会众多领域中的应用,尤其是在自动驾驶、军事国防等安全攸关系统中的部署,引起了学术界和工业界对神经网络模型可能表现出的错误行为的担忧.虽然神经网络验证和神经网络测试可以提供关于错... 随着智能信息时代的发展,深度神经网络在人类社会众多领域中的应用,尤其是在自动驾驶、军事国防等安全攸关系统中的部署,引起了学术界和工业界对神经网络模型可能表现出的错误行为的担忧.虽然神经网络验证和神经网络测试可以提供关于错误行为的定性或者定量结论,但这种事后分析并不能防止错误行为的发生,如何修复表现出错误行为的预训练神经网络模型依然是极具挑战性的问题.为此,深度神经网络修复这一领域应运而生,旨在消除有缺陷的神经网络产生的错误预测,使得神经网络满足特定的规约性质.目前为止,典型的神经网络修复范式有3种:重训练、无错误定位的微调和包含错误定位的微调.介绍深度神经网络的发展和神经网络修复的必要性;厘清相近概念;明确神经网络修复的挑战;详尽地调研目前已有的神经网络修复策略,并对内在联系与区别进行分析和比较;调研整理神经网络修复策略常用的评价指标和基准测试;展望未来神经网络修复领域研究中需要重点关注的可行方向. 展开更多
关键词 深度神经网络修复 错误行为 重训练 微调 错误定位
下载PDF
基于生成式预训练语言模型的学者画像构建研究
16
作者 柳涛 丁陈君 +2 位作者 姜恩波 许睿 陈方 《数字图书馆论坛》 2024年第3期1-11,共11页
大数据时代,互联网中以多源异构、非结构化形式存在的学者信息在实体抽取时伴有属性混淆、长实体等问题,严重影响学者画像构建的精准度。与此同时,学者属性实体抽取模型作为学者画像构建过程中的关键模型,在实际应用方面还存在较高的技... 大数据时代,互联网中以多源异构、非结构化形式存在的学者信息在实体抽取时伴有属性混淆、长实体等问题,严重影响学者画像构建的精准度。与此同时,学者属性实体抽取模型作为学者画像构建过程中的关键模型,在实际应用方面还存在较高的技术门槛,这对学者画像的应用推广造成一定阻碍。为此,在开放资源的基础上,通过引导句建模、自回归生成方式、训练语料微调等构建一种基于生成式预训练语言模型的属性实体抽取框架,并从模型整体效果、实体类别抽取效果、主要影响因素实例分析、样例微调影响分析4个方面对该方法进行验证分析。与对比模型相比,所提出的方法在12类学者属性实体上均达到最优效果,其综合F1值为99.34%,不仅能够较好地识别区分相互混淆的属性实体,对“研究方向”这一典型长属性实体的抽取准确率还提升了6.11%,为学者画像的工程化应用提供了更快捷、有效的方法支撑。 展开更多
关键词 生成式预训练语言模型 样例微调 学者画像 GPT-3
下载PDF
基于小样本学习的口语理解方法综述
17
作者 刘纳 郑国风 +3 位作者 徐贞顺 林令德 李晨 杨杰 《郑州大学学报(工学版)》 北大核心 2024年第1期78-89,共12页
小样本口语理解是目前对话式人工智能亟待解决的问题之一。结合国内外最新研究现状,系统地梳理了口语理解任务的相关文献。简要介绍了在非小样本场景中口语理解任务建模的经典方法,包括无关联建模、隐式关联建模、显式关联建模以及基于... 小样本口语理解是目前对话式人工智能亟待解决的问题之一。结合国内外最新研究现状,系统地梳理了口语理解任务的相关文献。简要介绍了在非小样本场景中口语理解任务建模的经典方法,包括无关联建模、隐式关联建模、显式关联建模以及基于预训练范式的建模方法;重点阐述了在小样本口语理解任务中为解决训练样本受限问题而提出的基于模型微调、基于数据增强和基于度量学习3类方法,介绍了如ULMFiT、原型网络和归纳网络等代表性模型。在此基础上对不同模型的语义理解能力、可解释性、泛化能力等性能进行分析对比。最后对口语理解任务面临的挑战和未来发展方向进行讨论,指出零样本口语理解、中文口语理解、开放域口语理解以及跨语言口语理解等研究内容是该领域的研究难点。 展开更多
关键词 口语理解 小样本学习 模型微调 数据增强 度量学习
下载PDF
基于API序列和预训练模型的恶意软件检测
18
作者 窦建民 师智斌 +2 位作者 于孟洋 霍帅 张舒娟 《计算机工程与设计》 北大核心 2024年第4期974-981,共8页
针对现有方法存在特征表达受限、无法捕获API序列全局语义信息,且恶意软件数据集通常包含大量无标注数据,无法直接进行有监督学习等问题,利用自然语言预训练模型技术,提出一种基于API调用序列和预训练模型的恶意软件检测方法。使用原始... 针对现有方法存在特征表达受限、无法捕获API序列全局语义信息,且恶意软件数据集通常包含大量无标注数据,无法直接进行有监督学习等问题,利用自然语言预训练模型技术,提出一种基于API调用序列和预训练模型的恶意软件检测方法。使用原始API序列构建分词器;基于BERT模型构建出动态掩码序列模型进行无监督学习的预训练,同时获取API序列的全局动态编码表示;使用该编码构造检测模型。实验结果表明,所提方法能有效检测出恶意软件。 展开更多
关键词 恶意软件检测 预训练模型 无监督学习 动态掩码 软件调用序列 模型微调 编码表示
下载PDF
构音障碍说话人自适应研究进展及展望
19
作者 康新晨 董雪燕 +1 位作者 姚登峰 钟经华 《计算机科学》 CSCD 北大核心 2024年第8期11-19,共9页
自动化语音识别工具让构音障碍者和正常人的沟通变得顺畅,因此,近年来构音障碍语音识别成为了一项热门研究。构音障碍语音识别的研究包括:收集构音障碍者和正常人的发音数据,对构音障碍者和正常人的语音进行声学特征表示,利用机器学习... 自动化语音识别工具让构音障碍者和正常人的沟通变得顺畅,因此,近年来构音障碍语音识别成为了一项热门研究。构音障碍语音识别的研究包括:收集构音障碍者和正常人的发音数据,对构音障碍者和正常人的语音进行声学特征表示,利用机器学习模型比较和识别发音的内容并定位出差异性,以帮助构音障碍者改善发音。然而,由于收集构音障碍者的大量语音数据非常困难,且构音障碍者存在发音的强变异性,导致通用语音识别模型的效果往往不佳。为了解决这一问题,许多研究提出将说话人自适应方法引入构音障碍语音识别。对大量相关文献进行调研发现,当前此类研究主要围绕特征域和模型域对构音障碍语音进行分析。文中重点分析特征变换和辅助特征如何解决语音特征的差异性表示,以及声学模型的线性变换、微调声学模型参数和基于数据选择的域自适应方法如何提高模型识别的准确率。最后总结出构音障碍说话人自适应研究当前遇到的问题,并指出未来的研究可以从语音变异性的分析、多特征多模态数据的融合以及基于小数量的自适应方法的角度,提升构音障碍语音识别模型的有效性。 展开更多
关键词 构音障碍 说话人自适应 辅助特征 变换 微调 域自适应
下载PDF
基于代码注释调优的智能合约自动生成方法
20
作者 陈勇 胡德锋 +1 位作者 徐超 陈楠楠 《计算机应用研究》 CSCD 北大核心 2024年第5期1502-1507,共6页
针对智能合约开发效率不高、安全漏洞频发等问题,提出了一种基于代码注释调优的智能合约自动生成方法。首先结合智能合约代码关联注释的语义信息,构建智能合约聚类分析模型,实现功能类似智能合约的快速精准聚类;接着划分注释关联的合约... 针对智能合约开发效率不高、安全漏洞频发等问题,提出了一种基于代码注释调优的智能合约自动生成方法。首先结合智能合约代码关联注释的语义信息,构建智能合约聚类分析模型,实现功能类似智能合约的快速精准聚类;接着划分注释关联的合约层、函数层、接口层等不同层次智能合约知识库,以聚类后的代码及注释信息为基础,构造多样化Prompt特征提示语句数据集;最后,以大语言模型ChatGLM2-6B为基础,借助P-Tuning v2微调技术,实现特定需求智能合约的自动生成。为检测该方法的有效性,借助双语互译质量评估辅助工具BLEU和代码安全检测工具Mythril与VaaS,同现有方法进行了对比。实验结果表明,该方法生成的代码BLEU平均值提升了13%左右,代码安全性提高6%左右。此方法将代码注释信息融入智能合约的自动生成,有效提升了智能合约的质量,为高效开发安全可靠的智能合约提供了一种新的方法。 展开更多
关键词 智能合约 注释 大语言模型 微调 自动生成
下载PDF
上一页 1 2 24 下一页 到第
使用帮助 返回顶部