期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
我国在线主动学习研究综述
1
作者 蒋翠仙 刘莎莎 杨在宝 《电脑知识与技术》 2023年第36期134-138,共5页
当下“线上+线下”的混合式学习成为常态化的学习形式,学习环境的改变引发了师生互动、课堂管理等方面的变化,学习者的学习主动性成为混合学习能否取得成效的关键。文章回顾了我国近十年在线主动学习的文献,利用CiteSpace软件对年度发... 当下“线上+线下”的混合式学习成为常态化的学习形式,学习环境的改变引发了师生互动、课堂管理等方面的变化,学习者的学习主动性成为混合学习能否取得成效的关键。文章回顾了我国近十年在线主动学习的文献,利用CiteSpace软件对年度发文量、发文作者、发文机构进行量化分析。并从教学传播的角度分析研究热点问题,未来的研究应更多地考虑如何利用信息技术创设主动学习空间、教师对在线学习的支持作用、学习者在线主动学习的内部影响因素、不同教学传播模式下促进主动学习的策略等主题。 展开更多
关键词 在线主动学习 学习动机 混合学习 教学传播 学习主动
下载PDF
一种面向多标签分类的在线主动学习算法 被引量:3
2
作者 龚楷伦 翟婷婷 唐鸿成 《山东大学学报(工学版)》 CAS CSCD 北大核心 2022年第2期80-88,共9页
针对现有算法多标签分类器收敛效率低和标签查询策略未考虑特征辨别能力的弊端,提出一种基于判别采样和镜像梯度下降规则的多标签在线主动学习算法(multi-label active mirror descent by discrimination sampling,MLAMD_D)。MLAMD_D算... 针对现有算法多标签分类器收敛效率低和标签查询策略未考虑特征辨别能力的弊端,提出一种基于判别采样和镜像梯度下降规则的多标签在线主动学习算法(multi-label active mirror descent by discrimination sampling,MLAMD_D)。MLAMD_D算法采用二元关联策略将包含C个标签的多标签分类问题分解成C个相互独立的二分类问题,算法使用镜像梯度下降规则更新其二分类器,并采用基于判别的采样策略。将MLAMD_D算法与现有算法以及基于随机采样和镜像梯度下降规则的多标签在线主动学习算法(multi-label active mirror descent by random sampling,MLAMD_R)在6个多标签分类数据集上进行对比试验。试验结果表明,MLAMD_D算法的多标签分类性能优于其他多标签在线主动学习算法。因此,MLAMD_D算法在处理多标签在线主动学习的任务中具有可行性和有效性。 展开更多
关键词 在线主动学习 多标签分类 弱监督学习 基于判别的采样策略 二元关联策略
原文传递
基于在线被动-主动学习的多特征融合图像分类 被引量:1
3
作者 李敏 《实验室研究与探索》 CAS 北大核心 2018年第3期140-146,共7页
提出了基于在线被动-主动学习的多视觉特征自主加权组合算法。该算法在模型训练阶段预先依据视觉特征与图像类别之间的相互关系赋予恰当的权值,减少了多特征组合的计算复杂度。通过推导出在线被动-主动学习算法的闭式解,提出的算法在满... 提出了基于在线被动-主动学习的多视觉特征自主加权组合算法。该算法在模型训练阶段预先依据视觉特征与图像类别之间的相互关系赋予恰当的权值,减少了多特征组合的计算复杂度。通过推导出在线被动-主动学习算法的闭式解,提出的算法在满足确保图像分类准确度的同时,提高了多特征组合的执行效率,降低了基于直方图交核学习算法的计算复杂度。与多核学习算法相比,基于在线被动-主动学习的多特征融合图像分类算法在保持图像分类准确度的情况下,所需的计算时间只有多核学习算法的10%左右。 展开更多
关键词 图像分类 多特征组合 在线被动-主动学习多核学习
下载PDF
Topic modeling for large-scale text data 被引量:1
4
作者 Xi-ming LI 《Frontiers of Information Technology & Electronic Engineering》 SCIE EI CSCD 2015年第6期457-465,共9页
This paper develops a novel online algorithm, namely moving average stochastic variational inference (MASVI), which applies the results obtained by previous iterations to smooth out noisy natural gradients. We analy... This paper develops a novel online algorithm, namely moving average stochastic variational inference (MASVI), which applies the results obtained by previous iterations to smooth out noisy natural gradients. We analyze the convergence property of the proposed algorithm and conduct a set of experiments on two large-scale collections that contain millions of documents. Experimental results indicate that in contrast to algorithms named 'stochastic variational inference' and 'SGRLD', our algorithm achieves a faster convergence rate and better performance. 展开更多
关键词 Latent Dirichlet allocation (LDA) Topic modeling Online learning Moving average
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部