期刊文献+
共找到260篇文章
< 1 2 13 >
每页显示 20 50 100
火箭发动机故障检测的快速增量单分类支持向量机算法
1
作者 张万旋 张箭 +2 位作者 卢哲 薛薇 张楠 《国防科技大学学报》 EI CAS CSCD 北大核心 2024年第2期115-122,共8页
为解决液体火箭发动机故障诊断正负样本不平均问题,以及实现发动机稳态工作段自适应故障检测,建立了基于快速增量单分类支持向量机的异常检测模型。采取特征工程方法,对传感器获得的多变量时间序列进行特征提取。通过增量学习方法,对单... 为解决液体火箭发动机故障诊断正负样本不平均问题,以及实现发动机稳态工作段自适应故障检测,建立了基于快速增量单分类支持向量机的异常检测模型。采取特征工程方法,对传感器获得的多变量时间序列进行特征提取。通过增量学习方法,对单分类支持向量机模型进行改进,并应用于液体火箭发动机异常检测,使单分类支持向量机检测模型具备对不同台次、不同工况的自适应性,提高了模型的计算速度。对多台次热试车数据的分析结果表明,该模型十分有效,训练速度快,具备实用价值。 展开更多
关键词 单分类支持向量 特征提取 自适应检测 增量学习 异常检测
下载PDF
增量式稀疏密度加权孪生支持向量回归机
2
作者 丁伟杰 顾斌杰 潘丰 《计算机工程》 CAS CSCD 北大核心 2024年第7期123-132,共10页
密度加权孪生支持向量回归机(DWTSVR)是一种能够反映数据内在分布的回归算法,具有预测精度高和鲁棒性强等优点,然而其并不适用于训练样本以增量形式提供的场景。针对该问题,提出一种增量式稀疏密度加权孪生支持向量回归机(ISDWTSVR)。首... 密度加权孪生支持向量回归机(DWTSVR)是一种能够反映数据内在分布的回归算法,具有预测精度高和鲁棒性强等优点,然而其并不适用于训练样本以增量形式提供的场景。针对该问题,提出一种增量式稀疏密度加权孪生支持向量回归机(ISDWTSVR)。首先,辨别新增数据是否为异常样本,并赋予有效样本适当的权重,减小异常样本对模型泛化性能的影响;其次,结合矩阵降维与主成分分析思想筛选出原始核矩阵中的一组特征列向量基代替原特征,实现核矩阵列稀疏化,以获得稀疏解;接着,借助牛顿迭代法和增量学习策略对上一时刻的模型信息进行调整,实现模型的增量更新,同时结合矩阵求逆引理避免增量更新过程中直接求解逆矩阵,进一步加快训练速度;最后,在UCI基准数据集上进行仿真实验,并与现有代表性算法进行比较。实验结果表明,ISDWTSVR继承了DWTSVR的泛化性能,在大规模数据集Bike-Sharing上,新增一个样本模型更新平均CPU时间为5.13 s,较DWTSVR缩短了97.94%,有效地解决了模型必须从头开始重新训练的问题,适用于大规模数据集的在线学习。 展开更多
关键词 孪生支持向量回归 增量学习 稀疏化 密度加权 牛顿迭代法
下载PDF
基于增量自适应支持向量机的AFM尖端磨损识别 被引量:1
3
作者 江子湛 程菲 张海民 《计算机集成制造系统》 EI CSCD 北大核心 2023年第4期1127-1136,共10页
为了提高纳米加工刀具磨损状态在线监测的精度与泛化能力,提出一种基于增量自适应支持向量机的基于原子力显微镜(AFM)尖端磨损识别方法。该方法以横向力的峰-峰值和方差作为特征变量,通过移动视窗获取增量数据;以维持Kuhn-Tucher定理所... 为了提高纳米加工刀具磨损状态在线监测的精度与泛化能力,提出一种基于增量自适应支持向量机的基于原子力显微镜(AFM)尖端磨损识别方法。该方法以横向力的峰-峰值和方差作为特征变量,通过移动视窗获取增量数据;以维持Kuhn-Tucher定理所要求的最优化条件为准则,在当前支持向量机解结构基础上自适应修改正则化参数C和核参数σ,以获得更新支持向量机结构,并对增量数据及受其扰动的原数据进行分类;根据尖端失效点数量走势,判定尖端磨损程度。实验证明该算法在识别精度与时间上可满足在线检测要求。与定向非循环图支持向量分类器对比,该算法具有更强的鲁棒性与更高的泛化能力。 展开更多
关键词 纳米加工 尖端磨损在线识别 横向力特征 增量自适应支持向量 统计模式损伤检测
下载PDF
增量式约简拉氏非对称ν型孪生支持向量回归机
4
作者 张帅鑫 顾斌杰 潘丰 《计算机科学与探索》 CSCD 北大核心 2023年第11期2640-2650,共11页
拉氏非对称ν型孪生支持向量回归机是一种泛化性能良好的预测算法,然而其并不适用于增量提供样本的场景。为此,提出了一种增量式约简拉氏非对称ν型孪生支持向量回归机(IRLAsy-ν-TSVR)算法。首先,引入正号函数,将有约束最优化问题转换... 拉氏非对称ν型孪生支持向量回归机是一种泛化性能良好的预测算法,然而其并不适用于增量提供样本的场景。为此,提出了一种增量式约简拉氏非对称ν型孪生支持向量回归机(IRLAsy-ν-TSVR)算法。首先,引入正号函数,将有约束最优化问题转换成无约束最优化问题,并采用半光滑牛顿法在原始空间直接求解,以加快收敛速度。接着,利用矩阵求逆引理,实现半光滑牛顿法中Hessian矩阵求逆的高效增量更新,节省时间开销。然后,为了减少样本累积导致的内存消耗,使用约简技术分别筛选增广核矩阵的列向量和行向量以逼近原增广核矩阵,确保解的稀疏性。最后,在基准测试数据集上验证算法的可行性和有效性。结果表明,与一些代表性算法相比,IRLAsy-ν-TSVR算法继承了离线算法的泛化性能,能够获得稀疏解,更适合大规模数据集的在线学习。 展开更多
关键词 孪生支持向量回归(TSVR) 半光滑牛顿法 在线学习 增量式学习 约简技术
下载PDF
基于组合半监督的增量支持向量机学习算法 被引量:7
5
作者 郭虎升 王文剑 潘世超 《模式识别与人工智能》 EI CSCD 北大核心 2016年第6期504-510,共7页
增量支持向量机(ISVM)由于在每次增量学习过程中无法选择最有效的增量样本,导致模型的泛化性能较差.针对此问题,文中提出基于组合半监督方式的增量支持向量机学习算法(ICS3VM).通过将大量的无标记样本分批进行组合标记以选择最优的增量... 增量支持向量机(ISVM)由于在每次增量学习过程中无法选择最有效的增量样本,导致模型的泛化性能较差.针对此问题,文中提出基于组合半监督方式的增量支持向量机学习算法(ICS3VM).通过将大量的无标记样本分批进行组合标记以选择最优的增量样本,即每次选择位于分类间隔内部的最有价值样本加入训练集,以此修正模型.同时选择分类间隔最大的一组标记作为最终标记,确保标记的准确性.在标准数据集上的实验表明,ICS3VM能以较高的学习效率提高模型的泛化性能. 展开更多
关键词 支持向量 组合半监督学习 增量支持向量(isvm)
下载PDF
基于支持向量机增量学习的电力系统暂态稳定评估 被引量:26
6
作者 叶圣永 王晓茹 +1 位作者 刘志刚 钱清泉 《电力系统自动化》 EI CSCD 北大核心 2011年第11期15-19,共5页
基于传统支持向量机的暂态稳定评估模型,通常将所有的学习样本同时参与学习,如果有新样本加入,则需要对所有样本重新学习。针对传统暂态稳定评估模型不能在线更新的不足,提出了一种支持向量机增量学习的暂态稳定评估方法。该方法利用一... 基于传统支持向量机的暂态稳定评估模型,通常将所有的学习样本同时参与学习,如果有新样本加入,则需要对所有样本重新学习。针对传统暂态稳定评估模型不能在线更新的不足,提出了一种支持向量机增量学习的暂态稳定评估方法。该方法利用一种快速支持向量机增量学习方法,构造递归解法将新数据增加到解中,并对模型更新前的训练数据保持Karush-Kuhn-Tucker条件。通过一次1个样本的增量学习更新暂态稳定评估模型。新英格兰39节点测试系统的仿真实验表明:所提出的方法能有效更新评估模型且大幅减少学习时间,为基于机器学习的电力系统暂态稳定在线学习提供了新思路。 展开更多
关键词 暂态稳定评估 器学习 支持向量 特征选择 增量学习
下载PDF
基于支持向量机的增量学习算法 被引量:9
7
作者 李永丽 刘衍珩 +2 位作者 肖见涛 李向涛 关伟洲 《吉林大学学报(理学版)》 CAS CSCD 北大核心 2010年第3期464-467,共4页
通过对支持向量机KKT条件和样本间关系的研究,分析了新增样本加入训练集后支持向量的变化情况,提出一种改进的Upper Limiton Increment增量学习算法.该算法按照KKT条件将对应的样本分为3类:位于分类器间隔外,记为RIG;位于分类间隔上,记... 通过对支持向量机KKT条件和样本间关系的研究,分析了新增样本加入训练集后支持向量的变化情况,提出一种改进的Upper Limiton Increment增量学习算法.该算法按照KKT条件将对应的样本分为3类:位于分类器间隔外,记为RIG;位于分类间隔上,记为MAR;位于分类间隔内,记为ERR.并在每次训练后保存ERR集,将其与下一个增量样本合并进行下一次训练.实验证明了该算法的可行性和有效性. 展开更多
关键词 支持向量 增量学习 支持向量(SVM)
下载PDF
增量和减量式标准支持向量机的分析 被引量:31
8
作者 顾彬 郑关胜 王建东 《软件学报》 EI CSCD 北大核心 2013年第7期1601-1613,共13页
当训练数据每次发生改变时,例如增加或者删除部分数据,标准支持向量机的批处理算法就需要重新进行训练,这将不适合在线环境的计算.为了克服这个问题,Cauwenberghs和Poggio提出了增量和减量式标准支持向量机算法(C&P算法).通过理论分... 当训练数据每次发生改变时,例如增加或者删除部分数据,标准支持向量机的批处理算法就需要重新进行训练,这将不适合在线环境的计算.为了克服这个问题,Cauwenberghs和Poggio提出了增量和减量式标准支持向量机算法(C&P算法).通过理论分析,证明C&P算法的可行性和有限收敛性.可行性证明确保了C&P算法的每步调整都是可靠的,有限收敛性证明确保了C&P算法通过有限步调整最终收敛到问题的最优解.在此基础上,进一步通过实验结果验证了所给出的理论分析的结果. 展开更多
关键词 支持向量 增量式学习 减量式学习 可行性分析 收敛性分析
下载PDF
基于壳向量的线性支持向量机快速增量学习算法 被引量:16
9
作者 李东晖 杜树新 吴铁军 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2006年第2期202-206,215,共6页
提出了一种新的基于壳向量的增量式支持向量机快速学习算法.在增量学习的过程中,利用训练样本集中的几何信息,在样本中选取一部分最有可能成为支持向量的样本———壳向量,它是支持向量集的一个规模较小的扩展集,将其作为新的训练样本集... 提出了一种新的基于壳向量的增量式支持向量机快速学习算法.在增量学习的过程中,利用训练样本集中的几何信息,在样本中选取一部分最有可能成为支持向量的样本———壳向量,它是支持向量集的一个规模较小的扩展集,将其作为新的训练样本集,再进行支持向量训练.这在很大程度上减少了求取支持向量过程中的二次优化运算时间,使增量学习的训练速度大为提高.与单纯使用支持向量代表样本数据集合进行增量学习的传统算法相比,使用该算法使分类精度得到了提高.针对肝功能检测标准数据集(BUPA)的实验验证了该算法的有效性. 展开更多
关键词 增量算法 支持向量 向量
下载PDF
一种基于距离比值的支持向量机增量训练算法 被引量:8
10
作者 徐海龙 王晓丹 +2 位作者 史朝辉 华继学 权文 《空军工程大学学报(自然科学版)》 CSCD 北大核心 2008年第4期29-33,共5页
由于支持向量机具有较好地学习性能和泛化能力,目前已经得到了广泛的应用。如何使支持向量机进行有效的增量学习是目前支持向量机应用中需要解决的问题。深入研究了支持向量分布特点,提出了一种新的支持向量机增量训练淘汰机制——距离... 由于支持向量机具有较好地学习性能和泛化能力,目前已经得到了广泛的应用。如何使支持向量机进行有效的增量学习是目前支持向量机应用中需要解决的问题。深入研究了支持向量分布特点,提出了一种新的支持向量机增量训练淘汰机制——距离比值算法。该算法根据遗忘规则,设定一个合适的参数,按距离比值法中的定义计算各个样本中心距离与其到最优分类面距离的比值,舍弃对后续训练影响不大的样本,即可对训练数据进行有效的淘汰。对标准数据集的实验结果表明,使用该方法进行增量训练在保证分类精度的同时,能有效地提高训练速度。 展开更多
关键词 支持向量 增量训练 淘汰 边界矢量 距离比值算法
下载PDF
一种快速支持向量机增量学习算法 被引量:31
11
作者 孔锐 张冰 《控制与决策》 EI CSCD 北大核心 2005年第10期1129-1132,1136,共5页
经典的支持向量机(SVM)算法在求解最优分类面时需求解一个凸二次规划问题,当训练样本数量很多时,算法的速度较慢,而且一旦有新的样本加入,所有的训练样本必须重新训练,非常浪费时间.为此,提出一种新的SVM快速增量学习算法.该算法首先选... 经典的支持向量机(SVM)算法在求解最优分类面时需求解一个凸二次规划问题,当训练样本数量很多时,算法的速度较慢,而且一旦有新的样本加入,所有的训练样本必须重新训练,非常浪费时间.为此,提出一种新的SVM快速增量学习算法.该算法首先选择那些可能成为支持向量的边界向量,以减少参与训练的样本数目;然后进行增量学习.学习算法是一个迭代过程,无需求解优化问题.实验证明,该算法不仅能保证学习机器的精度和良好的推广能力,而且算法的学习速度比经典的SVM算法快,可以进行增量学习. 展开更多
关键词 支持向量 边界向量 增量学习 支持向量
下载PDF
一种新的支持向量机增量学习算法 被引量:39
12
作者 曾文华 马健 《厦门大学学报(自然科学版)》 CAS CSCD 北大核心 2002年第6期687-691,共5页
提出一种新的支持向量机增量学习算法 .分析了新样本加入训练集后 ,支持向量集的变化情况 .基于分析结论提出新的学习算法 .算法舍弃对最终结论无用的样本 ,使得学习对象的知识得到了积累 .实验结果表明本算法在保证分类准确度的同时 。
关键词 支持向量 增量学习算法 器学习 支持向量 智能学习技术
下载PDF
快速支持向量机增量学习算法 被引量:8
13
作者 赵耀红 王快妮 +1 位作者 钟萍 王来生 《计算机工程与设计》 CSCD 北大核心 2010年第1期161-163,171,共4页
支持向量机对数据的学习往往因为规模过大造成学习困难,增量学习通过把数据集分割成历史样本集和新增样本集,利用历史样本集的几何分布信息,通过定义样本的遗忘因子,提取历史样本集中的那些可能成为支持向量的边界向量进行初始训练。在... 支持向量机对数据的学习往往因为规模过大造成学习困难,增量学习通过把数据集分割成历史样本集和新增样本集,利用历史样本集的几何分布信息,通过定义样本的遗忘因子,提取历史样本集中的那些可能成为支持向量的边界向量进行初始训练。在增量学习过程中对学习样本的知识进行积累,有选择地淘汰学习样本。实验结果表明,该算法在保证学习的精度和推广能力的同时,提高了训练速度,适合于大规模分类和在线学习问题。 展开更多
关键词 支持向量 增量学习 边界向量 遗忘因子 核函数
下载PDF
基于支持向量机的增量学习算法研究 被引量:10
14
作者 李忠伟 张健沛 杨静 《哈尔滨工程大学学报》 EI CAS CSCD 北大核心 2005年第5期643-646,共4页
分析了支持向量机理论中支持向量的特性,利用支持向量与样本空间划分的等价性,提出一种新的基于支持向量机的增量学习算法.该算法考虑新增样本集的分布可能改变对已有样本的分类结果,利用支持向量的分布特性,用对样本的划分差集构造新... 分析了支持向量机理论中支持向量的特性,利用支持向量与样本空间划分的等价性,提出一种新的基于支持向量机的增量学习算法.该算法考虑新增样本集的分布可能改变对已有样本的分类结果,利用支持向量的分布特性,用对样本的划分差集构造新的支持向量集和分类平面,使差集中的样本点对分类贡献尽可能最大,有效提高了分类精度.同时差集操作简单易行,有效降低了问题的计算复杂度.实验结果表明,与常规增量算法相比,该算法在不改变时间复杂度量级的前提下对分类精度有显著提高. 展开更多
关键词 支持向量 支持向量 增量学习 分类
下载PDF
一种支持向量机增量学习淘汰算法 被引量:6
15
作者 廖东平 魏玺章 +1 位作者 黎湘 庄钊文 《国防科技大学学报》 EI CAS CSCD 北大核心 2007年第3期65-70,共6页
针对大规模数据集的分类问题,支持向量机的训练成为一个难题。增量学习是解决这一难题的思路之一。分析了新增样本加入训练集后支持向量集的变化情况,提出了一种基于密度法的支持向量机增量学习淘汰算法,淘汰了对最终分类无用的样本,在... 针对大规模数据集的分类问题,支持向量机的训练成为一个难题。增量学习是解决这一难题的思路之一。分析了新增样本加入训练集后支持向量集的变化情况,提出了一种基于密度法的支持向量机增量学习淘汰算法,淘汰了对最终分类无用的样本,在保证测试精度的同时减少了训练时间。实验仿真证明这种算法是有效的。 展开更多
关键词 支持向量 增量学习 支持向量
下载PDF
基于中心距离比值的增量支持向量机 被引量:16
16
作者 孔波 刘小茂 张钧 《计算机应用》 CSCD 北大核心 2006年第6期1434-1436,共3页
研究了支持向量、中心距离比值、边界向量以及增量学习之间的关系,提出了基于中心距离比值的增量支持向量机。与传统方法相比,基于中心距离比值的增量支持向量机有效的利用了中心距离比值,解决了CDRM+SVM的阈值选取问题;且适合于增量学... 研究了支持向量、中心距离比值、边界向量以及增量学习之间的关系,提出了基于中心距离比值的增量支持向量机。与传统方法相比,基于中心距离比值的增量支持向量机有效的利用了中心距离比值,解决了CDRM+SVM的阈值选取问题;且适合于增量学习;从而在保证了支持向量机的分类能力没有受到影响的前提下提高了支持向量机的训练速度。 展开更多
关键词 统计学习理论 支持向量 中心距离比值 增量学习
下载PDF
基于超球支持向量机的类增量学习算法研究 被引量:8
17
作者 秦玉平 李祥纳 +1 位作者 王秀坤 王春立 《计算机科学》 CSCD 北大核心 2008年第8期116-118,共3页
提出了一种超球支持向量机类增量学习算法。对每一类样本,利用超球支持向量机在特征空间中求得包围该类尽可能多样本的最小超球,使各类样本之间通过超球隔开。类增量学习过程中,只对新增类样本进行训练,使得该算法在很小的样本集、很小... 提出了一种超球支持向量机类增量学习算法。对每一类样本,利用超球支持向量机在特征空间中求得包围该类尽可能多样本的最小超球,使各类样本之间通过超球隔开。类增量学习过程中,只对新增类样本进行训练,使得该算法在很小的样本集、很小的空间代价下实现了类增量学习,大大降低了训练时间,同时保留了历史训练结果。分类过程中,通过计算待分类样本到各超球球心的距离判定其所属类别,分类简单快捷。实验结果证明,该算法不仅具有较高的训练速度,而且具有较高的分类速度和分类精度。 展开更多
关键词 支持向量 增量学习 超球
下载PDF
一种增量向量支持向量机学习算法 被引量:7
18
作者 陈沅涛 徐蔚鸿 吴佳英 《南京理工大学学报》 EI CAS CSCD 北大核心 2012年第5期873-878,共6页
针对传统支持向量机方法执行效率低、耗时长的问题,该文提出一种基于增量向量支持向量机学习(IV-SVM)方法。对训练样本集在核空间的增量向量进行训练,获得初始支持向量机分类器。利用该分类器在Karush-Kuhn-Tucker(KKT)条件下对初始训... 针对传统支持向量机方法执行效率低、耗时长的问题,该文提出一种基于增量向量支持向量机学习(IV-SVM)方法。对训练样本集在核空间的增量向量进行训练,获得初始支持向量机分类器。利用该分类器在Karush-Kuhn-Tucker(KKT)条件下对初始训练样本进行修剪得到约减集,再用该约减集对初始分类器进一步加工,得到最终的支持向量机分类器。仿真结果表明,与传统支持向量机方法相比,在保证支持向量机泛化能力的条件下,IV-SVM可有效降低大容量数据样本的支持向量机训练时间。 展开更多
关键词 支持向量 增量向量 修剪 约减集
下载PDF
支持向量机的增量学习和减量学习 被引量:5
19
作者 段华 侯伟真 +1 位作者 贺国平 廉文娟 《哈尔滨工程大学学报》 EI CAS CSCD 北大核心 2006年第B07期415-421,共7页
分别介绍了支持向量机的增量学习和减量学习的两种训练方法,即在线递归训练法和最小二乘支持向量机.递归法只能处理在线(每次只处理一个样本)增量学习或减量学习,而最小二乘法即可处理在线又可处理成批增量学习或减量学习.递归法... 分别介绍了支持向量机的增量学习和减量学习的两种训练方法,即在线递归训练法和最小二乘支持向量机.递归法只能处理在线(每次只处理一个样本)增量学习或减量学习,而最小二乘法即可处理在线又可处理成批增量学习或减量学习.递归法得到的解是精确的但是以时间为代价的,最小二乘法花费的时间少,但得到的解不如递归法的精确.并通过标准模式分类库中数据集进行数值试验比较. 展开更多
关键词 支持向量 增量学习 减量学习 最小二乘法
下载PDF
支持向量机增量学习算法综述 被引量:12
20
作者 李祥纳 艾青 +1 位作者 秦玉平 刘卫江 《渤海大学学报(自然科学版)》 CAS 2007年第2期187-189,共3页
支持向量机增量学习算法,有效的解决了因数据集庞大而引起的内存不足问题,改善了因出现新样本而造成原分类器分类精度降低、分类时间延长的局面。本文阐述了几种具有代表性的增量学习算法,比较了它们的优缺点,给出了进一步的研究方向。
关键词 支持向量 增量学习 算法
下载PDF
上一页 1 2 13 下一页 到第
使用帮助 返回顶部