期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
低成本自进化的学习者画像模型研究 被引量:3
1
作者 葛迪 吴彦文 刘三女牙 《计算机工程与应用》 CSCD 北大核心 2023年第11期141-150,共10页
复杂教学交互环境下,针对学习者画像模型所面临的维数灾难和更新高数据成本问题,提出了一种新的模型——大规模数据下低成本自进化学习者画像,该方法改进了传统的深度非负矩阵分解算法,以此来对原始数据从双空间进行特征结构保留并有效... 复杂教学交互环境下,针对学习者画像模型所面临的维数灾难和更新高数据成本问题,提出了一种新的模型——大规模数据下低成本自进化学习者画像,该方法改进了传统的深度非负矩阵分解算法,以此来对原始数据从双空间进行特征结构保留并有效降维,抑制维数灾难;以图神经网络为信息捕获媒介,结合深度神经网络对元属性状态值进行量化,引导设计了一种自适应的特征抽取与动态更新策略来辅助学习者画像模型不断自进化;在斯坦福EDX平台数据集上设计了四项实验以验证该模型的性能。实验结果表明,该模型在93.13%的下游教学推荐任务精度下,可减少45%的更新数据成本。 展开更多
关键词 学习者画像 双空间降维 图注意力网络 自适应特征抽取 低数据成本更新
下载PDF
MLMS算法收敛条件和步长的选取
2
作者 裴炳南 《郑州大学学报(自然科学版)》 CAS 1994年第4期55-58,共4页
利用有限方差估计的方法,对修正自适应均方误差(MLMS)算法进行了分析。从分析可以知道,MLMS算法收敛是受失调量M的影响的,算法收敛的必要条件是收敛门限其中,λ_i是信号特征值,λ_m=maxλ_i.i,j∈{1,... 利用有限方差估计的方法,对修正自适应均方误差(MLMS)算法进行了分析。从分析可以知道,MLMS算法收敛是受失调量M的影响的,算法收敛的必要条件是收敛门限其中,λ_i是信号特征值,λ_m=maxλ_i.i,j∈{1,2,…,N}.步长μ与信号功率以tr(R)和失调量M有关,并且有μ<μ ̄*,步长μ的选取满足下式的条件,即0<μ<M/tr(R),M<1,计算机仿真结果与理论分析相吻合. 展开更多
关键词 自适应滤波 数据处理 收敛 步长 阈值 MLMS算法
下载PDF
深度神经模糊系统算法及其回归应用 被引量:8
3
作者 赵文迪 陈德旺 +1 位作者 卓永强 黄允浒 《自动化学报》 EI CSCD 北大核心 2020年第11期2350-2358,共9页
深度神经网络是人工智能的热点,可以很好处理高维大数据,却有可解释性差的不足.通过IF-THEN规则构建的模糊系统,具有可解释性强的优点,但在处理高维大数据时会遇到“维数灾难”问题.本文提出一种基于ANFIS(Adaptive network based fuzzy... 深度神经网络是人工智能的热点,可以很好处理高维大数据,却有可解释性差的不足.通过IF-THEN规则构建的模糊系统,具有可解释性强的优点,但在处理高维大数据时会遇到“维数灾难”问题.本文提出一种基于ANFIS(Adaptive network based fuzzy inference system)的深度神经模糊系统(Deep neural fuzzy system,DNFS)及两种基于分块和分层的启发式实现算法:DNFS1和DNFS2.通过四个面向回归应用的数据集的测试,我们发现:1)采用分块、分层学习的DNFS在准确度与可解释性上优于BP、RBF、GRNN等传统浅层神经网络算法,也优于LSTM和DBN等深度神经网络算法;2)在低维问题中,DNFS1具有一定优势;3)在面对高维问题时,DNFS2表现更为突出.本文的研究结果表明DNFS是一种新型深度学习方法,不仅可解释性好,而且能有效解决处理高维数据时模糊规则数目爆炸的问题,具有很好的发展前景. 展开更多
关键词 高维大数据 深度神经模糊系统 自适应神经模糊系统 分层结构 可解释性
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部