期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
融合主题模型和动态路由的小样本学习方法
1
作者 张淑芳 唐焕玲 +3 位作者 郑涵 刘孝炎 窦全胜 鲁明羽 《数据采集与处理》 CSCD 北大核心 2022年第3期586-596,共11页
针对小样本学习标注训练样本过少,导致特征表达力弱的问题,本文结合有监督主题模型(Supervised LDA,SLDA)和动态路由算法提出一种新的动态路由原型网络模型(Dynamic routing prototypical network based on SLDA,DRP-SLDA)。利用SLDA主... 针对小样本学习标注训练样本过少,导致特征表达力弱的问题,本文结合有监督主题模型(Supervised LDA,SLDA)和动态路由算法提出一种新的动态路由原型网络模型(Dynamic routing prototypical network based on SLDA,DRP-SLDA)。利用SLDA主题模型建立词汇与类别之间的语义映射,增强词的类别分布特征,从词粒度角度编码获得样本的语义表示。提出动态路由原型网络(Dynamic routing prototypical network,DR-Proto),通过提取交叉特征利用样本之间的语义关系,采用动态路由算法迭代生成具有类别代表性的动态原型,旨在解决特征表达问题。实验结果表明,DRP-SLDA模型能有效提取词的类别分布特征,且获取动态原型提高类别辨识力,从而能够有效提升小样本文本分类的泛化性能。 展开更多
关键词 小样本学习 元学习 原型网络 有监督主题模型 文本分类
下载PDF
面向智慧课堂的三位一体化辅助学习平台 被引量:2
2
作者 肖正 朱靖宇 +2 位作者 宋超 刘孝炎 魏鹏程 《软件导刊》 2022年第1期1-8,共8页
教学中,由于知识点间相互联系,随着疑惑知识点增多,学生听课的效率降低,及时为学生答疑解惑至关重要。针对此问题,考虑学生对知识理解与课堂专注度、教师授课水平、知识点难易程度之间的关联性,利用深度学习技术智能分析课堂三要素,从... 教学中,由于知识点间相互联系,随着疑惑知识点增多,学生听课的效率降低,及时为学生答疑解惑至关重要。针对此问题,考虑学生对知识理解与课堂专注度、教师授课水平、知识点难易程度之间的关联性,利用深度学习技术智能分析课堂三要素,从多维角度生成学情分析一体化数据。同时由于互联网学习资源冗余、部分内容缺乏趣味性,基于学生习惯和兴趣,将学习资源风格化处理成学生乐于接受的形式,以满足不同学生的学习需求。实践应用结果表明,课堂上人脸识别、文字识别的准确率分别为99%与92%,能够满足项目需求。其中,学生四个评估指标中,学生满意率为83.4%,表明该平台能够及时提供针对性的答疑解惑,便于学生更轻松主动地学习。 展开更多
关键词 智慧课堂 学情分析 深度学习 个性化推荐
下载PDF
一种去注意力机制的动态多层语义感知机
3
作者 刘孝炎 唐焕玲 +2 位作者 王育林 窦全胜 鲁明羽 《控制与决策》 EI CSCD 北大核心 2024年第2期588-594,共7页
Transformer在大规模数据集上取得了优异效果,但由于使用多头注意力使得模型过于复杂,且在小规模数据集上效果不理想.对于多头注意力替换的研究在图像处理领域已取得一些成果,但在自然语言处理领域还少有研究.为此,首先提出一种去注意... Transformer在大规模数据集上取得了优异效果,但由于使用多头注意力使得模型过于复杂,且在小规模数据集上效果不理想.对于多头注意力替换的研究在图像处理领域已取得一些成果,但在自然语言处理领域还少有研究.为此,首先提出一种去注意力的多层语义感知机(multi-layer semantics perceptron,MSP)方法,其核心创新是使用token序列转换函数替换编码器中的多头注意力,降低模型复杂度,获得更好的语义表达;然后,提出一种动态深度控制框架(dynamic depth control framework,DDCF),优化模型深度,降低模型复杂度;最后,在MSP方法和DDCF的基础上,提出动态多层语义感知机(dynamic multi-layer semantics perceptron,DMSP)模型,在多种文本数据集上的对比实验结果表明,DMSP既能提升模型分类精度,又能有效降低模型复杂度,与Transformer比较,在模型深度相同的情况下,DMSP模型分类精度大幅提升,同时模型的参数量大幅降低. 展开更多
关键词 特征表示 语义感知机 动态深度控制 TRANSFORMER 文本分类
原文传递
基于u-wordMixup的半监督深度学习模型 被引量:1
4
作者 唐焕玲 宋双梅 +2 位作者 刘孝炎 窦全胜 鲁明羽 《控制与决策》 EI CSCD 北大核心 2023年第6期1646-1652,共7页
当标注样本匮乏时,半监督学习利用大量未标注样本解决标注瓶颈的问题,但由于未标注样本和标注样本来自不同领域,可能造成未标注样本存在质量问题,使得模型的泛化能力变差,导致分类精度下降.为此,基于wordMixup方法,提出针对未标注样本... 当标注样本匮乏时,半监督学习利用大量未标注样本解决标注瓶颈的问题,但由于未标注样本和标注样本来自不同领域,可能造成未标注样本存在质量问题,使得模型的泛化能力变差,导致分类精度下降.为此,基于wordMixup方法,提出针对未标注样本进行数据增强的u-wordMixup方法,结合一致性训练框架和Mean Teacher模型,提出一种基于u-wordMixup的半监督深度学习模型(semi-supervised deep learning model based on u-wordMixup,SD-uwM).该模型利用u-wordMixup方法对未标注样本进行数据增强,在有监督交叉熵和无监督一致性损失的约束下,能够提高未标注样本质量,减少过度拟合.在AGNews、THUCNews和20 Newsgroups数据集上的对比实验结果表明,所提出方法能够提高模型的泛化能力,同时有效提高时间性能. 展开更多
关键词 半监督学习 数据增强 深度学习 文本分类
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部