期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
A STUDY OF METHODS FOR IMPROVING LEARNING VECTOR QUANTIZATION
1
作者 朱策 厉力华 +1 位作者 何振亚 王太君 《Journal of Electronics(China)》 1992年第4期312-320,共9页
Learning Vector Quantization(LVQ)originally proposed by Kohonen(1989)is aneurally-inspired classifier which pays attention to approximating the optimal Bayes decisionboundaries associated with a classification task.Wi... Learning Vector Quantization(LVQ)originally proposed by Kohonen(1989)is aneurally-inspired classifier which pays attention to approximating the optimal Bayes decisionboundaries associated with a classification task.With respect to several defects of LVQ2 algorithmstudied in this paper,some‘soft’competition schemes such as‘majority voting’scheme andcredibility calculation are proposed for improving the ability of classification as well as the learningspeed.Meanwhile,the probabilities of winning are introduced into the corrections for referencevectors in the‘soft’competition.In contrast with the conventional sequential learning technique,a novel parallel learning technique is developed to perform LVQ2 procedure.Experimental resultsof speech recognition show that these new approaches can lead to better performance as comparedwith the conventional 展开更多
关键词 learning VECTOR Quantization(LVQ) Soft competition scheme CREDIBILITY Reference VECTOR parallel(sequential)learning technique
下载PDF
支持向量学习的多参数同时调节 被引量:1
2
作者 丁立中 贾磊 廖士中 《软件学报》 EI CSCD 北大核心 2014年第9期2149-2159,共11页
模型选择是支持向量学习的关键问题.已有模型选择方法采用嵌套的双层优化框架,内层执行支持向量学习,外层通过最小化泛化误差的估计进行模型选择.该框架过程复杂,计算效率低.简化传统的双层优化框架,提出一个支持向量学习的多参数同时... 模型选择是支持向量学习的关键问题.已有模型选择方法采用嵌套的双层优化框架,内层执行支持向量学习,外层通过最小化泛化误差的估计进行模型选择.该框架过程复杂,计算效率低.简化传统的双层优化框架,提出一个支持向量学习的多参数同时调节方法,在同一优化过程中实现模型选择和学习器训练.首先,将支持向量学习中的参数和超参数合并为一个参数向量,利用序贯无约束极小化技术(sequential unconstrained minimization technique,简称SUMT)分别改写支持向量分类和回归的有约束优化问题,得到多参数同时调节模型的多元无约束形式定义;然后,证明多参数同时调节模型目标函数的局部Lipschitz连续性及水平集有界性.在此基础上,应用变尺度方法(variable metric method,简称VMM)设计并实现了多参数同时调节算法.进一步地,基于多参数同时调节模型的性质,证明了算法收敛性,对比分析了算法复杂性.最后,实验验证同时调节算法的收敛性,并实验对比同时调节算法的有效性.理论证明和实验分析表明,同时调节方法是一种坚实、高效的支持向量模型选择方法. 展开更多
关键词 核方法 支持向量学习 模型选择 参数调节 序贯无约束极小化技术
下载PDF
基于Spark的OS-ELM并行化算法 被引量:2
3
作者 邓万宇 杨丽霞 《西安邮电大学学报》 2016年第2期101-104,118,共5页
针对Spark平台的弹性分布式数据集并行计算框架机制,提出一种在线连续极限学习机并行处理的改进算法。利用分离在线连续极限学习机矩阵之间的依赖关系,将大规模数据中的高度复杂的矩阵分布到Spark集群中并行化计算,并行计算多个增量数... 针对Spark平台的弹性分布式数据集并行计算框架机制,提出一种在线连续极限学习机并行处理的改进算法。利用分离在线连续极限学习机矩阵之间的依赖关系,将大规模数据中的高度复杂的矩阵分布到Spark集群中并行化计算,并行计算多个增量数据块的隐藏层输出矩阵,实现OS-ELM对矩阵的加速求解。实验结果表明,该算法在保持精度的同时可有效缩短学习时间,改善了大数据的扩展能力。 展开更多
关键词 在线连续极限学习机 大数据 SPARK 并行计算
下载PDF
问题式学习(PBL)联合消化内镜病例图库教学提升中医脾胃病专业研究生理论与临床能力随机平行对照研究 被引量:13
4
作者 彭卓嵛 吴泽铃 陈婧 《实用中医内科杂志》 2018年第3期59-61,64,共4页
[目的]观察问题式学习(PBL)联合消化内镜病例图库教学提升中医脾胃病专业研究生理论与临床能力效果。[方法]使用随机平行对照方法,将消化内镜室90名医学本科院校学生随机分三组,30名/组。传统教学组:传统课堂多媒体教学,讲课→观摩→操... [目的]观察问题式学习(PBL)联合消化内镜病例图库教学提升中医脾胃病专业研究生理论与临床能力效果。[方法]使用随机平行对照方法,将消化内镜室90名医学本科院校学生随机分三组,30名/组。传统教学组:传统课堂多媒体教学,讲课→观摩→操作→临床见习带教(模拟内镜与临床内镜交替)。PBL组:PBL教学→临床见习带教(同传统教学)。PBL+消化内镜图库组(联合组):PBL+消化内镜图库教学,PBL+消化内镜图库教学→临床见习带教(同传统教学),提出、解决问题、总结三个阶段后教师评价;提出问题:教师选取典型病例及图谱,学生分小组讨论,提出问题,汇总、分类,确保每个同学都有要解决的问题;解决问题:小组成员收集问题相关资料,做出答案和总结,在小组反馈,讨论解决,教师引导,围绕典型与非典型病例及常见与非常见图谱讨论,针对重点及难点深入分析;总结:提出新问题,确保已无未解决问题,每人向小组汇报自主学习情况,共同解决最初的问题、总结学习所得;教师评价:分析难点,归纳重点,找出偏差。评价搜集病史问诊内容及技巧、体格检查及内镜操作、临床思维能力、总成绩。消化内镜室实习3个月,判定效果。[结果]问诊内容及问诊技巧各组间无显著差异(P>0.05)。体格检查及内镜操作、思维能力PBL组、联合组均优于传统教学组(P<0.05,P<0.01);PBL组与联合组无显著差异(P>0.05)。总成绩PBL组、联合组均优于传统教学组(P<0.05,P<0.01),联合组优于PBL组(P<0.05)。[结论]问题式学习(PBL)联合消化内镜病例图库教学可提高中医脾胃病专业研究生体格检查及内镜操作、临床思维能力,综合能力亦提升。 展开更多
关键词 问题式学习(PBL) 消化内镜病例图库 脾胃病专业 研究生教学 搜集病史 问诊内容 问诊技巧、体格检查 内镜操作 临床思维能力 随机平行对照研究
下载PDF
极限学习机前沿进展与趋势 被引量:103
5
作者 徐睿 梁循 +2 位作者 齐金山 李志宇 张树森 《计算机学报》 EI CSCD 北大核心 2019年第7期1640-1670,共31页
极限学习机(Extreme Learning Machine,ELM)作为前馈神经网络学习中一种全新的训练框架,在行为识别、情感识别和故障诊断等方面被广泛应用,引起了各个领域的高度关注和深入研究.ELM最初是针对单隐层前馈神经网络的学习速度而提出的,之... 极限学习机(Extreme Learning Machine,ELM)作为前馈神经网络学习中一种全新的训练框架,在行为识别、情感识别和故障诊断等方面被广泛应用,引起了各个领域的高度关注和深入研究.ELM最初是针对单隐层前馈神经网络的学习速度而提出的,之后又被众多学者扩展到多隐层前馈神经网络中.该算法的核心思想是随机选取网络的输入权值和隐层偏置,在训练过程中保持不变,仅需要优化隐层神经元个数.网络的输出权值则是通过最小化平方损失函数,来求解Moore - Penrose广义逆运算得到最小范数最小二乘解.相比于其它传统的基于梯度的前馈神经网络学习算法,ELM具有实现简单,学习速度极快和人为干预较少等显著优势,已成为当前人工智能领域最热门的研究方向之一.ELM的学习理论表明,当隐层神经元的学习参数独立于训练样本随机生成,只要前馈神经网络的激活函数是非线性分段连续的,就可以逼近任意连续目标函数或分类任务中的任何复杂决策边界.近年来,随机神经元也逐步在越来越多的深度学习中使用,而ELM可以为其提供使用的理论基础.本文首先概述了ELM的发展历程,接着详细阐述了ELM的工作原理.然后对ELM理论和应用的最新研究进展进行了归纳总结,着重讨论并分析了自ELM提出以来的主要学习算法和模型,包括提出的原因、核心思想、求解方法、各自的优缺点以及相关问题.最后,针对当前的研究现状,指出了ELM存在的争议、问题和挑战,并对未来的研究方向和发展趋势进行了展望。 展开更多
关键词 极限学习机 网络结构 正则化 核学习 深度学习 在线学习 并行计算
下载PDF
基于串行–并行集成学习的高峰负荷预测方法 被引量:24
6
作者 史佳琪 马丽雅 +2 位作者 李晨晨 刘念 张建华 《中国电机工程学报》 EI CSCD 北大核心 2020年第14期4463-4472,共10页
负荷预测自电力工业诞生便是一项热门的基础研究问题,连续多天的日高峰负荷预测往往对电网的优化运行与安全稳定起到重要作用。该文深入分析了统计学习类算法的误差分布,提出一种基于串–并行集成学习的连续多日高峰负荷预测方法。首先... 负荷预测自电力工业诞生便是一项热门的基础研究问题,连续多天的日高峰负荷预测往往对电网的优化运行与安全稳定起到重要作用。该文深入分析了统计学习类算法的误差分布,提出一种基于串–并行集成学习的连续多日高峰负荷预测方法。首先介绍了统计学习类算法的泛化误差的分解情况,阐述了XGBoost串行集成算法与Bagging并行集成学习的训练机理,分析了粒子群算法的基本原理。在综合考量模型偏差与方差分布的基础上,提出Bagging框架下基于XGBoost算法的负荷预测模型,并采用粒子群算法交叉验证XGBoost模型最优超参数。最后,使用斯洛文尼亚电力公司用电负荷数据对算法有效性进行验证,算例表明XGBoost模型对特征贡献度的量化分析有效地辅助了特征选择的过程,粒子群算法缩短了XGBoost超参数寻优的时间。与传统模型相比,基学习器为树模型的Bagging-XGBoost算法有着较高的预测精度。预测结果显示串–并行方式耦合的集成学习方式在连续多日高峰负荷预测场景中有着较高应用价值。 展开更多
关键词 连续多日高峰负荷预测 串–并行集成学习 XGBoost BAGGING 超参数优化 特征贡献度
下载PDF
一个修正的并行变量分配算法
7
作者 冯婷婷 韩丛英 《山东理工大学学报(自然科学版)》 CAS 2011年第2期17-20,共4页
针对2002年C.A.Sagastizabal和M.V.Solodov提出的并行变量分配算法进行修正.通过引入一个线性规划,在每个迭代点处求解一个线性规划和二次规划,来替代原文中的二次规划子问题,避免了原算法的二次规划子问题可能不相容的情形.再者,通过... 针对2002年C.A.Sagastizabal和M.V.Solodov提出的并行变量分配算法进行修正.通过引入一个线性规划,在每个迭代点处求解一个线性规划和二次规划,来替代原文中的二次规划子问题,避免了原算法的二次规划子问题可能不相容的情形.再者,通过一个非单调技术替代原文中的罚函数执行线性搜索过程,具有更大的灵活性. 展开更多
关键词 并行最优化 序列二次规划 约束最优化 并行变量分配算法 非单调技术
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部